النسخة الجديدة من “الدكتور غوغل” ها قد وصلت إلينا. فبعد عقودٍ أمضاها المرضى في تزويد الأعراض إلى محرك البحث وتمشيط الإنترنت بحثاً عن مؤشرات تشخيصية، ها هُم اليوم باتوا يتوجّهون إلى تكنولوجيا جديدة لطرح أسئلتهم الصحية: روبوتات الدردشة المعتمِدة على الذكاء الاصطناعي.
أظهر استطلاع، أجري العام الماضي، أن نحو واحد من كل ستة بالغين — وربع البالغين دون سن الثلاثين — يستشيرون بانتظام روبوتات دردشة مثل “ChatGPT” للحصول على معلومات طبية. وللغوص في الأسباب، طلبتُ أنا وزميلتي، ماغي أستور، من قرّاء “نيويورك تايمز” مشاركة تجاربهم في الاستشارات الطبية مع هذه الروبوتات.
بالفعل، فإن مئات الأشخاص كتبوا إلينا. وفي محادثاتنا معهم، تكرّر سماع القصة نفسها بصيغ مختلفة: الناس لا يحصلون على ما يحتاجونه من النظام الصحي؛ فالمواعيد تستغرق وقتاً طويلاً، والأطباء غير متفرّغين بما يكفي، وقيمة الفواتير لا تُحتمل.
لا غرفة انتظار، ولا موعد مدّته 15 دقيقة يتعيّن عليك خلالها أن تحشر كل أسئلتك. فالمعلومات مجانية أو شبه مجانية. وبسبب “اللطف” الدائم الذي تبديه هذه الروبوتات، يشعر كثيرون بأن قلقهم يُؤخذ أخيراً على محمل الجد.
أما الأطباء الذين تحدّثنا إليهم، فأقرّوا بوجود عيوب حقيقية تشوب النظام الصحي. لكنهم، في الوقت نفسه، أعربوا عن قلقهم من حجم اعتماد الناس على روبوتات الدردشة — التي قد تقدّم أحياناً معلومات ناقصة أو حتى مختلقة بالكامل — لاتخاذ قرارات مصيرية على هذا القدر من الخطورة.
لقد خلق هذا التحوّل واقعاً إشكالياً. فمع لجوء المرضى إلى الذكاء الاصطناعي للحصول على “الرأي الأول”، باتت العلاقة بين الطبيب والمريض تنتقل من ثنائية إلى أخرى ثلاثية الأطراف.
وليس هذا بالضرورة أمراً سلبياً. فقد ذكر المرضى أنهم باتوا يشعرون بقدرة أكبر على الاعتراض عندما لا يتلقّون العلاج الأمثل، فيما أكّد الأطباء أن المرضى الذين يستخدمون “ChatGPT” يصلون إلى مواعيدهم متسلحين بفهم أوضح لحالاتهم. كما أشار بعض الأطباء إلى أن المرضى قد يقدّمون أحياناً اقتراحات مفيدة مصدرها الذكاء الاصطناعي – وهي اقتراحات لم تكن مطروحة سابقاً على الطاولة.
غير أن المشكلات تبدأ عندما يسعى المرضى إلى استبعاد الأطباء بالكامل. فقد روى لي أحد خبراء الأخلاقيات حالة حديثة خرجت فيها مريضة من المستشفى خلافاً للمشورة الطبية، لأن أحد أقاربها اعتبر أن خطة العلاج التي اقترحها “ChatGPT” أفضل من تلك التي قدّمها فريق أطبائها في جامعة “ييل”.
تنصّ شروط استخدام العديد من روبوتات الدردشة على أنها غير مخصّصة لتقديم استشارات طبية. وقد أبلغتنا شركتا “OpenAI” و”Microsoft” أنهما تتعاملان بجدّية مع دقّة المعلومات الصحية، وتعملان بالتعاون مع خبراء طبيين لتحسين إجابات روبوتاتهما. غير أن الأبحاث تشير إلى أن معظم النماذج لم تعد تُظهر أي تحذيرات أو إخلاءات مسؤولية عند طرح أسئلة صحية. كما أن روبوتات الدردشة تقدّم بشكل روتيني اقتراحات تشخيصية، وتفسّر نتائج الفحوصات، وتوفّر نصائح علاجية.
إن حجم الثقة التي يضعها المستخدمون في هذه النماذج يثير القلق، خصوصاً أننا لا نعرف بعد مدى قدرتها الفعلية على مساعدة الناس في إدارة شؤونهم الصحّية. ثم أن ثمة دراسة أجراها باحثون في جامعة أوكسفورد — نُشرت على الإنترنت ولم تخضع بعد للمراجعة الأكاديمية — لا تبعث على الاطمئنان. فقد وجدت أن المشاركين الذين استخدموا روبوتات الدردشة للتعامل مع سيناريو طبي، اتخذوا الخطوات التالية المناسبة (مثل ما إذا كان ينبغي الاتصال بفريق إسعاف) أقل من نصف الوقت.
ومع ذلك، قد تكون روبوتات الدردشة غير الكاملة أفضل من الرعاية الصحية التي يحصل عليها كثير من الناس أصلاً، وفق ما يقول الدكتور روبرت واشتِر، رئيس قسم الطب في جامعة كاليفورنيا – سان فرانسيسكو. إذ أشار: “في كثير من الحالات، فإن البديل إمّا سيّئ… أو معدوم تماماً”.
ترجمة بتصرف عن صحيفة “نيويورك تايمز”
بقلم تيدي روزنبلوث

بيروت 2030
منصة مستقلة رؤيتها بناء دولة قائمة على السيادة والشفافية والمحاسبة، واستعادة أموال الناس المنهوبة. منفتحة على الفضاء العربي ومدافعة عن موقع لبنان داخل محيطه.
