في خطوة احترازية، أقدمت شركة غوغل على إزالة بعض ملخصات الصحة التي يولدها الذكاء الاصطناعي من نتائج البحث، بعد تحقيق كشف عن احتوائها على معلومات طبية غير دقيقة قد تُربك المستخدمين وتؤثر سلباً على قراراتهم الصحية.
وتعتمد ميزة AI Overviews على الذكاء الاصطناعي التوليدي لتقديم إجابات سريعة تظهر أعلى نتائج البحث. ورغم تأكيد غوغل أن هذه الميزة “مفيدة وموثوقة”، إلا أن تقريراً نشرته صحيفة الغارديان أشار إلى حالات خطيرة تضمنت معلومات صحية مضللة.
معلومات خاطئة عن فحوصات وظائف الكبد
أظهر التحقيق أن بعض ملخصات الذكاء الاصطناعي قدّمت بيانات غير صحيحة حول اختبارات وظائف الكبد، ما قد يدفع مرضى يعانون أمراضاً كبدية خطيرة إلى الاعتقاد بأن نتائجهم طبيعية. كما أن البحث عن “المعدل الطبيعي لفحوصات دم الكبد” أدى إلى عرض أرقام بلا سياق طبي كافٍ، من دون مراعاة عوامل مثل العمر أو الجنس أو الخلفية العرقية.
وحذّر خبراء من أن هذه النتائج قد تخلق طمأنة زائفة، وتؤدي إلى تجاهل المتابعة الطبية اللازمة، ما يشكل خطراً حقيقياً على صحة المرضى.
غوغل تتخذ إجراءً احترازياً
عقب التحقيق، قامت غوغل بإزالة ملخصات الذكاء الاصطناعي المتعلقة بعمليات بحث مثل:
- المعدل الطبيعي لفحوصات دم الكبد
- المعدل الطبيعي لاختبارات وظائف الكبد
وقال متحدث باسم الشركة إن غوغل لا تعلّق على حالات الإزالة الفردية، لكنها تعمل على تحسين جودة المحتوى عندما يفتقر إلى السياق، وتتخذ الإجراءات اللازمة وفق سياساتها الداخلية.
مخاوف مستمرة من دقة المحتوى الصحي
من جانبها، رحّبت British Liver Trust بالخطوة، لكنها حذّرت من أن تغيير صيغة البحث قد يؤدي إلى ظهور ملخصات ذكاء اصطناعي مضللة أخرى، خصوصاً عند استخدام مصطلحات مثل LFT reference range.
وأكدت أن فحوصات وظائف الكبد معقّدة، ولا يمكن تفسيرها عبر مقارنة أرقام فقط، مشيرة إلى أن بعض الملخصات لا تحذّر من احتمال وجود مرض خطير رغم نتائج “طبيعية”.
الذكاء الاصطناعي والصحة: تحدٍ متواصل
ورغم إزالة بعض النتائج، لا تزال ملخصات الذكاء الاصطناعي تظهر في موضوعات صحية أخرى مثل السرطان والصحة النفسية، وصفها مختصون بأنها “شديدة الخطورة”. في المقابل، تؤكد غوغل أن هذه الملخصات تستند إلى مصادر موثوقة، وتتضمن تنبيهاً بضرورة استشارة المختصين، وأن فريقاً من الأطباء راجع المحتوى واعتبره دقيقاً في معظم الحالات.
