تأخذك إلى أعماق الفكر

مخاطر الذكاء الاصطناعي في القطاعات الطبية

يحتّم علينا التوسع في استخدام الذكاء الاصطناعي في القطاعات الطبية دراسة العيوب الكامنة والمحتملة لهذه التكنولوجيا.

مقدمة:

لقد شاهدنا الذكاء الاصطناعي وهو يقتحم المجال الطبي في كل قطاعاته، فوصل إلى غرف العمليات، وقسم السجلات، وغرف الاستشارة، والمختبرات، ومراكز التشخيص، وقد حقق في ذلك نتائج غير مسبوقة تفوقت أحيانًا على البشر من حيثُ دقة النتائج.

سوف تعيد هذه التكنولوجيا الناشئة تعريف المجال الطبي بالكامل. فقد ولت تلك الأيام التي اعتمدنا فيها على الأدوات البدائية والآلات العملاقة، لتفسح المجال لتطبيقات الهاتف الطبية، والتكنولوجيا التي يمكن للمريض أن يرتديها لتخدم صحته، أو لتمد الطبيب بالمعلومات اللازمة، وهو ما يخفف العبء عن الأطباء ويسهل من مهامهم.

نظرًا للقبول الواسع الذي حازت عليه تكنولوجيا الذكاء الاصطناعي في المجال الطبي، فقد أصبح لزامًا علينا أن نضع في الاعتبار بعض المخاطر المحتملة التي قد تنجم عن سماحنا للآلات الأخذ بزمام الأمور في هذا المجال الحيوي.

رغم أن الذكاء الاصطناعي لا يزال في مهده، إلا أنّ ما تم جمعه من معلومات خلال الأحداث الأخيرة، يشير بقوة إلى ضرورة الحرص على فهم المبادئ الكامنة وراء تلك الأنظمة، بجانب أهمية الإحاطة بالتهديدات والمخاطر التي قد تأتي معها.

إعلان

مخاطر الحياة بجانب الآلات

بغض النظر عن مدى التشابه الذي قد تصل إليه الروبوتات مع البشر في مرحلة ما، إلا أنّها تظل، بالإضافة إلى نظام الذكاء الاصطناعي الذي تعتمد عليه، اختراع بشري عرضة للانهيار التقني. فلن تكون  مثالية كما نعتقد. لذا لا ينبغي أن ننظر إلى الذكاء الاصطناعي باعتباره نهاية للخطأ البشري- فيجب أن نراعي أن تلك التكنولوجيا قد يشوبها عيوب، وضمن تلك العيوب تكمن المخاطر.

يمكن أن يتسبب الذكاء الاصطناعي في ضرر مادي أو معنوي. يشمل الضرر المادي الخسائر في الأرواح والممتلكات، والمخاطر المتعلقة بالصحة والسلامة. في حين أن الضرر المعنوي مُتعلق بالأمور غير الملموسة مثل القيود على حرية التعبير، وفقدان الخصوصية، أو حتى التمييز ضد مجموعة ما.

هناك عدة مخاطر مرتبطة باعتمادنا على الذكاء الاصطناعي، وهو ما أصبح يقابله اليوم اهتمام متزايد بغية الوصول إلى إطار تنظيمي يهدف إلى تقليل سلبيات تلك التكنولوجيا الآخذة في التطور.

ولكي تفهم إلى أي مدى ستكون الحياة آمنة، أو خطرة، بجانب الروبوتات، إليك مجموعة من أكثر المخاطر جدلًا:

1. الإضرار بالحقوق الأساسية للإنسان

هذه إحدى أهم المشكلات. فالمجال الطبي يحوي العديد من المعلومات الحساسة المتعلقة بحياة المرضى الشخصية، ويجب دائمًا أن تكون لدينا صلاحية لنصل إلى تلك البيانات، ولكن الحال مع أنظمة الذكاء الاصطناعي لا يكون دائمًا كذلك.

كما يتم تدريب تلك الأنظمة اعتمادًا على كم هائل من البيانات، وإن كانت تلك البيانات متحيزة تجاه خاصية ما (أي تضمنت صفة متحيزة مثل مجموعة عرقية، مستوى مادي، دولة ما، لغة، أو دين أو غير ذلك)، فسينشأ عن ذلك نظام متحيز في نتائجه.

فمثلًا في عام 2009، قام إروين إي آل Irwin et al ببناء نظام “معالجة لغات طبيعية” (وهو أحد فروع الذكاء الصناعي، معني بالتعامل مع اللغات)، وكان يهدف بهذا النظام مساعدة أطباء الأسنان في تسجيل الرسوم البيانية باستخدام الأوامر الصوتية. إلا أنّ ذلك النظام تضمن العديد من المشكلات في تحديد اللهجة ونبرة الصوت. وخلال تحليل النظام، اكتشفوا أن نموذجهم يعمل بكفاءة أكبر مع الإنجليزية الأمريكية مقارنة باللغات الأخرى. وهو ما نجم عن البيانات التي استخدموها أثناء تدريب نموذجهم.

فإن كانت اللهجة مماثلة لما تدرب عليه النظام، كانت النتائج أفضل، وبذلك قد يتعرف النظام فقط على الأوامر الصوتية من أجناس معينة.

تهدد قضايا كتلك حقوقنا في الخصوصية وعدم التمييز، وهو ما يتناقض بشكل مباشر مع القيم التي يقوم عليها الاتحاد الأوروبي والنقابات والعديد من الدول حول العالم.

2. القرارات التي تتخذها الآلات قد تكون  دقيقة، لكن ليست دائمًا مثالية 

إذا ما تعلق الأمر بالحياة والموت، لا نعلم بالتحديد مستوى الثقة الذي يجب أن نعطيه للآلات. خاصةً تلك القرارات التي تحمل في داخلها مستوى عالٍ من الخطورة، فبإمكان الآلات أن تكون حاسمة في قراراتها، إلا أنّ كفاءة ودقة تلك القرارات معتمد بشكل وثيق على مدى كفاءة عملية بنائها وتدريبها.

فيمكن لسيارة ذاتية القيادة، على سبيل المثال، أن تفضل الالتزام بإحدى قواعد المرور على حياة أحد المشاة. كما يمكن لأحد الروبوتات الطبية أن يقرر تدخلًا طبيًا خاطئًا لأنه فقط سهل التنفيذ. وهناك عدد لا يحصى من الأمثلة الشبيهة.

هل تعتقد أنني أبالغ؟

حسنًا، في عام 2016، قامت شركة مايكروسوفت بتصميم روبوت يُدعى “Tay”، والذي كان من المفترض أن يتفاعل مع الآخرين عبر الإنترنت كفتاة في سن المراهقة. لكنه في أقل من 24 ساعة أصبح يتحدث عبر تويتر بطريقة عنصرية.

3. التأثير على خصوصية الأفراد

ماذا عن التطبيقات التي قمت بتثبيتها على هاتفك؟ حتى الاستخدامات البسيطة للذكاء الاصطناعي يمكن أن يزيد من تسجيل وتتبع أنشطتك اليومية، يعمل ذلك على استخراج بيانات مفيدة بالطبع، والتي تعزز من الجوانب البحثية، إلا أنّ بعض التطبيقات تفعل ذلك دون طلب موافقة صاحب الجهاز الإلكتروني. فكلما زاد اعتمادنا على الأنظمة الآلية في العناية باحتياجاتنا، كلما قل حفاظنا على بياناتنا الشخصية.

4. المخاطر المتعلقة بالسلامة

الخطأ يولد المخاطر، وهذه التكنولوجيا ليست محصنة ضد ذلك. فمثلًا، بإمكان خلل في تقنية التعرف على الصور أن يؤدي إلى تشخيص خاطئ أو حتى إجراء عملية جراحية على جزء خاطئ من الجسم.

ويمكنك أن تقرأ أكثر عن ذلك في هذه المقالة.

الخاتمة

يتطلب المجال الطبي مستوى عال من التفكير الاستباقي، يجب أن يتواجد الأطباء دائمًا بأنفسهم، ربما يستمدوا العون من الآلات ليحيطوا بموضوع ما بشكل أعمق، لكن لا يجب أن نترك زمام الأمور في هذا القطاع بالكامل للروبوتات.

يمنح الذكاء الاصطناعي المجال الطبي فوائد وتطبيقات عدة. ينبغي أن نستفيد من ذلك بالطبع، لكن علينا أن ننظر بحرص إلى ما قد يلازمه من سلبيات ومخاطر، لنتمكن من تفاديه.

المصدر:

https://medium.com/datadriveninvestor/the-risks-of-ai-in-the-healthcare-industry-227a122415d5

 

إعلان

مصدر

هذا المقال يعبر عن رأي كاتبه، ولا يعبر بالضرورة عن سياسة المحطة.