أخبار اليوم - أصيبت مولي كير، وهي فتاة نيويوركية تبلغ من العمر 26 عاماً وتقيم في لندن بالانزعاج، هذا الصيف عندما أظهرت فحوصات دمها وجود اختلالات هرمونية، كما كتبت ماغي أستور(*).
تحميل السجل الطبي
بعد رؤية النتائج على بوابة المرضى الخاصة بها، شعرت بخوف شديد من الانتظار للتحدث مع طبيبها. لذلك، وببعض القلق، ألصقت التقرير الكامل في «تشات جي بي تي» الذي أخبرها أن نتائج فحوصاتها قد تشير إلى عدد من الحالات. لكنه «على الأرجح» ورم في الغدة النخامية أو حالة نادرة مرتبطة بأورام الغدة النخامية.
لم تكن تخمينات روبوت الدردشة مستبعدة - فقد وافق طبيب كير على طلب تصوير بالرنين المغناطيسي للتحقق - لكنها كانت خاطئة، إذ لم يكتشف أي ورم.
غير أن مريضاً آخر هو إليوت رويس (63 عاماً)، مرّ بتجربة مختلفة بعد تحميل سجلاته الطبية التي امتدت لخمس سنوات إلى «تشات جي بي تي» بما في ذلك توثيق حالة قلبية معقدة ونوبة قلبية سابقة. فقد بدأ يشعر بمزيد من الانزعاج أثناء ممارسة الرياضة، وأشار فحص إلى وجود شريان مسدود جزئياً.
واعتقد طبيبه أن المراقبة الدقيقة كافية في الوقت الحالي. ولكن بناءً على نصيحة «تشات جي بي تي»، ألحّ رويس في طلب إجراء تشخيصي أكثر تدخلاً، الذي كشف عن انسداد بنسبة 85 في المائة - وهي مشكلة خطيرة عولجت بوضع دعامة في الشريان.
في جميع أنحاء العالم، يستخدم ملايين الأشخاص برامج الدردشة الآلية لفهم صحتهم بشكل أفضل. والبعض، مثل كير ورويس، يذهبون إلى أبعد من مجرد طرح الأسئلة الطبية. لقد سلموا هم وأكثر من اثني عشر شخصاً آخرين تحدثوا إلى صحيفة «نيويورك تايمز» نتائج الفحوصات المختبرية والصور الطبية وملاحظات الأطباء والتقارير الجراحية وغيرها إلى برامج الدردشة الآلية.
تشخيصات غير دقيقة
تُعدّ المعلومات غير الدقيقة مصدر قلق كبير؛ فقد وجدت بعض الدراسات أن الأشخاص غير المؤهلين طبياً لا يحصلون على تشخيصات صحيحة من برامج الدردشة الآلية إلا في نصف الحالات، أو أقل. كما أن تحميل البيانات الحساسة المطلوبة للحصول على ردود أكثر تخصيصاً. يزيد من مخاطر خرق الخصوصية.
أجوبة الأدوات الذكية ليست فعالة مثل الأطباء
تقول الدكتورة دانييل بيترمان، الأستاذة المساعدة في كلية الطب بجامعة هارفارد والمسؤولة السريرية عن علوم البيانات والذكاء الاصطناعي في مستشفى ماساتشوستس العام في بريغهام، إنه من غير الآمن افتراض أن روبوت الدردشة يُخصص تحليله لنتائج الاختبارات. وقد وجد بحثها أن روبوتات الدردشة قد تتجه نحو تقديم استجابات أكثر عمومية حتى عند إعطائها سياقاً لمرضى محددين.
وأضافت: «مجرد تقديمك لكل هذه المعلومات لنماذج اللغة الذكية لا يعني أنها تستخدم هذه المعلومات بفعالية بنفس الطريقة التي يستخدمها الطبيب».
خصوصية البيانات الصحية
وبمجرد أن يُحمّل الأشخاص هذا النوع من البيانات، فإن سيطرتهم على كيفية استخدامها محدودة. لا ينطبق قانون HIPAA، وهو قانون خصوصية الصحة الفيدرالي الأميركي، على الشركات التي تقف وراء روبوتات الدردشة الشائعة.
ومن الناحية القانونية، كما يقول برادلي مالين، أستاذ المعلوماتية الطبية الحيوية في المركز الطبي بجامعة فاندربيلت: «أنك تتنازل عملياً عن أي حقوق لديك فيما يتعلق بالخصوصية الطبية»، تاركاً فقط الحماية التي تختارها الشركة المعنية.
وقد صرحت شركة «أوبن إيه آي»، المطورة لبرنامج «جي بي تي»، بأنها تطبق إجراءات حماية شاملة لحماية معلومات مستخدميها الخاصة.
وأشارت إحدى ممثلات الشركة إلى إمكانية اختيار المستخدمين عدم استخدام محادثاتهم لتدريب النماذج المستقبلية، وقالت إن الشركة اختبرت أنظمتها ضد هجمات محاكاة. وأضافت أنها تشارك أيضاً الحد الأدنى من البيانات مع مزودي خدمات تابعين لجهات خارجية.
ومع ذلك، أشار خبراء خصوصية البيانات إلى وجود مخاطر في تحميل المعلومات الطبية إلى أي روبوت دردشة - وذلك لاختلاف سياسات روبوتات الدردشة المختلفة، ولصعوبة إزالة جميع نقاط الضعف.
تسريبات روبوتات الدردشة
ومن المشكلات الأخرى أن العديد من الأشخاص لا يختارون ميزة «عدم تسليم بياناتهم لأغراض التدريب». وهذا يخلق احتمالية أنه إذا قام شخص ما بتحميل بيانات طبية، ثم سأل شخص آخر نموذجاً مستقبلياً عن ذلك الشخص، فقد يُسرب روبوت الدردشة «عن طريق الخطأ معلومات حساسة للغاية»، وفقاً لما قالته كارني شاغال-فيفركورن، الأستاذة المساعدة في كلية بيليني للذكاء الاصطناعي والأمن السيبراني والحوسبة بجامعة جنوب فلوريدا.
غير أن «أوبن إيه آي» تقول إنها تعمل على «تقليل» هذا الاحتمال، وأن «جي بي تي» مُدرّب على عدم التعرّف على مثل هذه المعلومات أو الكشف عنها. لكن خبراء خصوصية البيانات ما زالوا يعتبرون هذا السيناريو معقولاً.
وقالت شاغال-فيفركورن: «من المؤكد أن إجراءات الشركة تُقلل من المخاطر، لكنها ليست مضمونة، ومن المرجح أنها لن تكون كذلك». وأضافت: «لا تخشوا التكنولوجيا، ولكن كونوا على دراية تامة بالمخاطر».
قال بعض المرضى إنهم حجبوا أسماءهم ومسحوا بياناتهم الوصفية قبل مشاركة سجلاتهم مع روبوتات الدردشة. لكن هذا قد لا يكون كافياً كما يقول الدكتور راينو كوشال، رئيس قسم علوم صحة السكان في كلية طب وايل كورنيل ونيويورك-بريسبتيريان، إذ إنه يمكن في بعض الأحيان ربط معلومات مُفصّلة بما يكفي بأفراد، حتى في حال عدم إرفاق أي أسماء.
عواقب ومخاوف وآمال
قد تكون عواقب تسريب المعلومات الصحية وخيمة. وعلى سبيل المثال، فإنه وعلى الرغم من أن التمييز ضد الأشخاص ذوي الإعاقة غير قانوني بالنسبة لمعظم أصحاب العمل، غير أنه ليس نادراً. ومع ذلك فإن معظم من تحدثوا إلى «التايمز» قالوا إنهم لم يشعروا بأي قلق.
وبالعودة إلى حالة مولي كير، فقد قالت إن طبيب الغدد الصماء لم يستطع مساعدتها بعد استبعاده وجود أي ورم، كما لم يتمكن طبيب الرعاية الأولية من حل اللغز. لذلك، عادت إلى «جي بي تي» للحصول على اقتراحات تشخيصية جديدة ونصائح غذائية، وقد وجدت بعضها مفيداً. وأضافت: «أعلم أنها معلومات حساسة، لكنني أشعر أيضاً أنني لا أحصل على أي إجابات من أي جهة أخرى».
* خدمة «نيويورك تايمز».