به گزارش منابع آگاه، سه کارمند سازمان غذا و دارو آمریکا (FDA) نگرانیهایی جدی نسبت به عملکرد ابزار هوش مصنوعی «السا» ابراز کردهاند. این افراد مدعی هستند که السا در برخی موارد دچار توهمات اطلاعاتی (hallucinations) شده و نتایجی بر پایه تحقیقات غیرموجود یا تفسیرهای نادرست از دادههای علمی ارائه داده است.
یکی از این منابع میگوید:
«در حوزه علمی، هر چیزی که دوباره کنترل یا بازتولید نشود، قابل اتکا نیست. السا بارها اطلاعات تأییدنشده تولید کرده که برای ابزاری در مسیر تصمیمسازیهای کلینیکی، هشداردهنده است.»
واکنش مدیران FDA: بیتفاوتی یا احتیاط؟
در پاسخ به این نگرانیها، مارتی ماکاری، کمیسیونر FDA، اعلام کرد که تا کنون هیچ گزارشی رسمی درباره این موارد خاص دریافت نکرده است. او در ادامه تأکید کرد استفاده از السا و شرکت در دورههای آموزشی مربوط به آن اختیاری است.
همزمانی نگرانکننده با سیاستهای کلان فناوری
نکته قابل توجه این است که گزارش تحقیقی CNN در مورد السا و کاستیهای آن، همزمان با رونمایی از برنامه اقدام هوش مصنوعی دولت آمریکا منتشر شده است. این برنامه که از سوی کاخ سفید اعلام شده، هوش مصنوعی را به عنوان عرصهای استراتژیک مانند رقابت تسلیحاتی معرفی میکند و خواستار حذف مقررات محدودکننده برای تسریع توسعه آن است.
در این سند همچنین تأکید شده که هوش مصنوعی باید فاقد سوگیری ایدئولوژیک باشد؛ اما در عین حال خواسته شده تنها از «خطمشیهای فعلی دولت» پیروی کند. این سیاست میتواند به حذف موضوعاتی مانند تغییرات اقلیمی، مقابله با اطلاعات نادرست، و ابتکارهای تنوع و برابری (DEI) از خروجی ابزارهای هوش مصنوعی منجر شود.
نگرانی درباره سلامت عمومی و اعتماد علمی
از آنجا که موضوعاتی نظیر تغییرات اقلیمی، اطلاعات نادرست و عدالت بهداشتی بهطور مستقیم با سلامت عمومی در ارتباط هستند، وابستگی بیش از حد به ابزارهایی مانند السا — آنهم با سوگیریهای احتمالی و عدم دقت علمی — اعتماد به سیستمهای تصمیمگیری در FDA و سلامت بیماران آمریکایی را با تردید روبرو کرده است.