انجمن پزشکی استرالیا خواستار تنظیم قوانین قوی و شفاف در مورد استفاده از هوش مصنوعی در صنعت مراقبت‌های بهداشتی و پزشکی شد.

هوش مصنوعی در پزشکی قانونمند شود/ نگرانی از فاش شدن اطلاعات محرمانه بیماران

به گزارش گاردین، انجمن پزشکی استرالیا پس از هشدار به پزشکان بیمارستان‌های مستقر در پرت مبنی بر عدم نوشتن یادداشت‌های پزشکی با استفاده از چت جی‌پی‌تی، خواستار قوانین قوی و شفافیت در مورد استفاده از هوش مصنوعی در صنعت مراقبت‌های بهداشتی و پزشکی شده است.

انجمن پزشکی استرالیا در ارائه مقاله بحث دولت فدرال در مورد هوش مصنوعی ایمن و مسئول گفت: استرالیا در تنظیم هوش مصنوعی از دیگر کشورهای مشابه عقب‌تر است و اشاره کرد که قوانین قوی‌تری برای محافظت از بیماران و متخصصان مراقبت‌های بهداشتی و ایجاد اعتماد مورد نیاز است.

در ماه مه به پنج بیمارستان در متروپولیتن جنوبی پرت توصیه شد که استفاده از چت جی‌پی‌تی را برای نوشتن سوابق پزشکی برای بیماران متوقف کنند.

پل فوردن مدیرعامل این سرویس در ایمیلی به کارکنان اعلام کرد:  هیچ تضمینی برای محرمانه بودن اطلاعات بیماران با استفاده از این سیستم‌ها وجود ندارد و باید متوقف شود.

حمایت‌های هوش مصنوعی باید شامل اطمینان از این باشد که پزشکان تصمیمات نهایی را می‌گیرند و رضایت آگاهانه بیمار برای هر درمان یا تشخیصی که با استفاده از هوش مصنوعی انجام می‌شود، وجود دارد.

انجمن پزشکان آمریکا گفت: داده‌های بیماران باید محافظت شوند و نظارت اخلاقی مناسب برای اطمینان از اینکه سیستم منجر به نابرابری‌های بهداشتی بیشتر نمی‌شود، مورد نیاز است.

به گفته این نهاد، قانون پیشنهادی هوش مصنوعی اتحادیه اروپا  که خطرات فناوری‌های مختلف هوش مصنوعی را دسته بندی می‌کند و یک هیات نظارت ایجاد می‌کند  که باید برای استرالیا هم در نظر گرفته شود.

در این بیانیه آمده است که نیاز کانادا به نقاط مداخله انسانی برای تصمیم گیری نیز باید در نظر گرفته شود.

مقررات آینده باید اطمینان حاصل کنند که تصمیمات بالینی تحت تاثیر هوش مصنوعی با نقاط مداخله انسانی مشخص در طول فرآیند تصمیم گیری گرفته می‌شوند.

این مقررات باید روشن کند که تصمیم نهایی در مورد مراقبت از بیمار باید همیشه توسط یک انسان و معمولا یک پزشک گرفته شود.

پروفسور استیو رابسون، رئیس انجمن پزشکان آمریکا گفت: هوش مصنوعی حوزه‌ای است که به سرعت در حال تکامل است و درک آن از فردی به فرد دیگر متفاوت است.

او در بیانیه‌ای گفت: ما باید به شکاف تنظیم هوش مصنوعی در استرالیا بپردازیم، به ویژه در مراقبت‌های بهداشتی که پتانسیل آسیب دیدن بیمار از خطاهای سیستمی، تعصب سیستمی تعبیه شده در الگوریتم‌ها و افزایش خطر برای حریم خصوصی بیمار وجود دارد.

مدیر ارشد سلامت گوگل، کارن دسالوو اوایل ماه جاری به گاردین استرالیا گفت:  هوش مصنوعی در نهایت نتایج سلامتی بیماران را بهبود خواهد بخشید، اما بر اهمیت درست کردن سیستم‌ها تاکید کرد.

ما چیزهای زیادی برای انجام دادن داریم تا مطمئن شویم که مدل‌ها به طور مناسب محدود شده اند، که آن‌ها واقعا سازگار هستند، و اینکه آن‌ها از این رویکردهای اخلاقی و عدالتی که ما می‌خواهیم اتخاذ کنیم پیروی می‌کنند، اما من در مورد این پتانسیل فوق العاده هیجان زده هستم.

یک مطالعه تحقیقاتی گوگل که در ماه جاری در نشریه نیچر منتشر شد نشان داد که مدل زبانی پزشکی گوگل پاسخ‌هایی برابر با پاسخ‌های پزشکان در ۹۲.۹  مواقع که رایج‌ترین سوالات پزشکی جست و جو شده در اینترنت را می‌پرسیدند، تولید می‌کند.

منبع: آنا

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.