الذكاء الاصطناعي المسؤول في الطب: ضمان المصادقة السريرية والتطبيق الأخلاقي

آب/أغسطس

"لا يوجد تقريبًا أي ذكاء اصطناعي مستقل في مجال الرعاية الصحية... علينا أن نبدأ في التفكير في كيفية التأكد من أننا نقيس دقة الذكاء الاصطناعي ليس فقط الذكاء الاصطناعي، بل الذكاء الاصطناعي بالإضافة إلى المستخدم النهائي."

مساعد الرئيس الطبي المساعد، الذكاء الاصطناعي السريري في قسم الذكاء الاصطناعي السريري في شركة راديولوجي بارتنرز

لقد جلب التقدم السريع لتقنيات الذكاء الاصطناعي (AI) الإثارة والقلق في مجال الطب. فمن ناحية، تنطوي هذه الخوارزميات القوية على إمكانات هائلة لإحداث ثورة في مجال الرعاية الصحية، بدءًا من تسريع التشخيص إلى تحسين خطط العلاج. ومع ذلك، فإن دمج الذكاء الاصطناعي في الممارسة الطبية في العالم الحقيقي يطرح أيضًا تحديات كبيرة يجب التعامل معها بعناية.

مع حصول المئات من الأجهزة الطبية التي تعمل بالذكاء الاصطناعي على موافقة الجهات التنظيمية في السنوات الأخيرة، تتزايد الدعوات إلى إجراء المزيد من التحقق السريري الصارم لضمان أن هذه الأدوات تفيد المرضى حقًا. لا يمكن أن يؤدي الاستخدام العشوائي للذكاء الاصطناعي إلى الفشل في تحسين النتائج فحسب، بل قد يؤدي في أسوأ الحالات إلى إلحاق الضرر بالمرضى. يتطلب التطوير والتنفيذ المسؤول للذكاء الاصطناعي الطبي نهجًا متعدد الأوجه، ومعالجة القضايا المعقدة المتعلقة بالاختبارات السريرية والتحيز الخوارزمي والتفاعل بين الإنسان والذكاء الاصطناعي وموافقة المريض.

مخاطر النشر المتسرع

تسلط قصة ديفين سينغ، وهو طبيب مقيم في طب الأطفال شهد حالة مأساوية لسكتة قلبية في قسم الطوارئ، الضوء على الحاجة الملحة لإجراء تقييم شامل لأنظمة الذكاء الاصطناعي قبل استخدامها سريريًا. وقد اضطر سينغ، بعد أن دمرته وفاة الطفل، إلى الاستفادة من خبرته المزدوجة في طب الأطفال وعلوم الكمبيوتر لاستكشاف كيف يمكن للذكاء الاصطناعي أن يساعد في تقليل أوقات الانتظار وتسريع الرعاية. ومن خلال أبحاثه، طوّر سينغ وزملاؤه مجموعة من نماذج الذكاء الاصطناعي التي يمكن أن توفر تشخيصات سريعة وتوصي بإجراء الفحوصات المناسبة لمرضى الأطفال.

في حين أظهر تحليل البيانات بأثر رجعي نتائج واعدة، مع إمكانية تسريع الرعاية لأكثر من 20% من زيارات قسم الطوارئ، إلا أن هذه مجرد خطوة أولى في التحقق من التأثير الواقعي لتدخل الذكاء الاصطناعي هذا في العالم الحقيقي. يعد الاختبار الصحيح للذكاء الاصطناعي الطبي عملية معقدة ومتعددة المراحل تتجاوز الأداء الخوارزمي الأولي.

ولسوء الحظ، فإن المشهد الحالي هو مشهد من الثغرات الكبيرة في التحقق السريري. فقد وجدت مراجعة حديثة أنه تم نشر 65 تجربة معشاة مضبوطة فقط للتدخلات التي تعتمد على الذكاء الاصطناعي بين عامي 2020 و2022 - وهو عدد ضئيل مقارنة بمئات الأجهزة الطبية التي تعمل بالذكاء الاصطناعي التي تمت الموافقة على استخدامها من قبل الجهات التنظيمية مثل إدارة الغذاء والدواء الأمريكية (FDA).

يقول طبيب القلب ديفيد أويانغ في مركز سيدارز سيناي الطبي في لوس أنجلوس بصراحة: "تشهد مؤسسات الرعاية الصحية العديد من الأجهزة المعتمدة التي لم يتم التحقق من صحتها سريريًا." ويعني هذا النقص في الاختبارات الصارمة أن المستشفيات والعيادات غالبًا ما تُترك لاتخاذ قرارات عالية المخاطر بشأن اعتماد هذه التقنيات مع وجود أدلة محدودة على تأثيرها في العالم الحقيقي.

قد تؤدي هياكل الحوافز في سوق الذكاء الاصطناعي الطبي إلى تفاقم هذه المشكلة. في الولايات المتحدة، تقوم برامج التأمين الصحي بالفعل بتعويض المستشفيات عن استخدام بعض أجهزة الذكاء الاصطناعي في المستشفيات، مما يخلق حافزًا ماليًا لاعتماد هذه الأدوات حتى لو لم تثبت فوائدها لرعاية المرضى. يشير أويانغ إلى أن هذا قد يثني الشركات عن الاستثمار في عملية التجارب السريرية المكلفة والمستهلكة للوقت، حيث قد يكون الحصول على الموافقة على السداد أولوية أكبر من إثبات تحسين النتائج الصحية.

قد يكون الوضع مختلفاً في أنظمة الرعاية الصحية ذات التمويل الحكومي المركزي، حيث يوجد معيار أعلى للأدلة قبل الحصول على التقنيات. ولكن بشكل عام، يبدو أن البيئة التنظيمية الحالية قد وضعت معيارًا منخفضًا للغاية، حيث أن الأجهزة التي تشكل مخاطر عالية محتملة على المرضى غالبًا ما تتطلب بيانات سريرية محدودة فقط للموافقة عليها.

حساب العوامل البشرية

حتى عندما يُظهر نظام الذكاء الاصطناعي نتائج واعدة في دراسة خاضعة للرقابة، يمكن أن يتأثر أداؤه في العالم الحقيقي بشكل كبير بكيفية تفاعل أخصائيي الرعاية الصحية مع التكنولوجيا واستجابتهم لها. ويُعد عامل "الإنسان في الحلقة" هذا من الاعتبارات الحاسمة التي غالباً ما يتم تجاهلها.

تقدم تجربة المركز الطبي الجامعي في أمستردام مثالاً بارزًا على ذلك. حيث أجرى الباحثون هناك تجربة عشوائية لاختبار خوارزمية طورتها شركة إدواردز لايفيسينسز يمكنها التنبؤ بحدوث انخفاض ضغط الدم أثناء الجراحة، وهي حالة خطيرة تُعرف باسم انخفاض ضغط الدم أثناء الجراحة. أظهرت التجربة الأولية أن الخوارزمية، إلى جانب بروتوكول علاج واضح، كانت فعالة في تقليل مدة نوبات انخفاض ضغط الدم.

ومع ذلك، فشلت تجربة لاحقة أجرتها مؤسسة أخرى في تكرار هذه الفوائد. الفرق الرئيسي؟ في التجربة الأولى الناجحة، كان الباحثون قد أعدوا أطباء التخدير بعناية حول كيفية الاستجابة لتنبيهات الخوارزمية. لكن في التجربة الثانية، "لم يكن هناك امتثال من قبل الأطباء بجانب السرير لفعل شيء ما عندما انطلق الإنذار"، كما يوضح طبيب التخدير دينيس فيلو.

هذا العامل البشري أمر بالغ الأهمية. ستفشل خوارزمية الذكاء الاصطناعي الجيدة تمامًا إذا اختار مقدمو الرعاية الصحية الذين يستخدمونها تجاهل توصياتها أو أساءوا تفسيرها. كما يمكن لعوامل مثل "إرهاق التنبيهات"، حيث يصبح الأطباء السريريون غير حساسين تجاه عدد كبير من التحذيرات التي يولدها الذكاء الاصطناعي، أن تقوض إمكانات التكنولوجيا.

من الضروري سد الفجوة بين مطوري الذكاء الاصطناعي والمستخدمين النهائيين. وكما وجدت الباحثة في مايو كلينيك باربرا باري عند اختبار خوارزمية للكشف عن أمراض القلب، أراد مقدمو الرعاية الصحية المزيد من الإرشادات حول كيفية توصيل نتائج الأداة بشكل فعال للمرضى. إن دمج مثل هذه الرؤى التصميمية التي تركز على المستخدم هو المفتاح لضمان التكامل السلس للذكاء الاصطناعي في سير العمل السريري.

بالإضافة إلى الأطباء السريريين فقط، يجب أيضًا مراعاة دور المريض. تعمل العديد من تطبيقات الذكاء الاصطناعي الطبية الحالية خلف الكواليس، حيث تساعد مقدمي الخدمات في الفحص والتشخيص وتخطيط العلاج. ولكن كما يوضح مشروع سينغ في قسم طوارئ الأطفال، هناك فئة متنامية من أدوات الذكاء الاصطناعي التي تهدف إلى تمكين المرضى بشكل مباشر، وأتمتة بعض عمليات اتخاذ القرار.

في هذه الحالة، سيأخذ نظام الذكاء الاصطناعي بيانات الفرز، ويقوم بالتنبؤ، ثم يسعى للحصول على موافقة الوالدين أو مقدمي الرعاية المباشرة للمضي قدمًا في الاختبار - مما يؤدي فعليًا إلى إزالة الطبيب من الحلقة. وهذا يثير أسئلة أخلاقية وتنظيمية غير مسبوقة حول موافقة المريض ومسؤوليته ومسؤوليته. كيف يمكننا ضمان الحصول على موافقة مستنيرة وحقيقية من العائلات في مثل هذه السيناريوهات المؤتمتة؟ ما هي الآثار القانونية المترتبة في حال حدوث خطأ ما؟

هذه مياه مجهولة، ويتعاون فريق سينغ مع الخبراء القانونيين والمنظمين للإبحار فيها. ولكن على نطاق أوسع، يجب على مجتمع الذكاء الاصطناعي الطبي أن يتعامل مع الدور المتطور للمريض كمصدر للبيانات وكمستخدم نهائي لهذه التقنيات. سيكون التواصل الشفاف، وعمليات الموافقة الهادفة، وأطر حوكمة البيانات القوية أمراً ضرورياً.

معالجة التحيز الخوارزمي

هناك تحدٍ آخر بالغ الأهمية في اختبار الذكاء الاصطناعي الطبي ونشره وهو ضمان أداء هذه الأدوات بشكل منصف بين مختلف فئات المرضى. يعد التحيز الخوارزمي، حيث يُظهر نظام الذكاء الاصطناعي مخرجات منحرفة أو تمييزية بناءً على عوامل مثل العرق أو الجنس أو الحالة الاجتماعية والاقتصادية، مشكلة موثقة جيدًا في مجال الرعاية الصحية.

وغالباً ما تفشل مجموعات التجارب السريرية في أن تكون ممثلة لفئات المرضى الأوسع نطاقاً التي ستخدمها هذه التقنيات. كما يلاحظ شياوكسوان ليو، الباحث السريري في جامعة برمنغهام في المملكة المتحدة: "إنها ببساطة حقيقة معروفة أن خوارزميات الذكاء الاصطناعي تكون هشة للغاية عند استخدامها على بيانات مختلفة عن البيانات التي تم تدريبها عليها."

ويوضح مثال خوارزمية جوجل هيلث للكشف عن اعتلال الشبكية السكري هذا الخطر. فبينما أظهرت الأداة دقة عالية في الاختبارات التي أُجريت في مقر الشركة في بالو ألتو بكاليفورنيا، انخفض أداؤها بشكل كبير عند استخدامها في العيادات في تايلاند. وقد كشفت دراسة قائمة على الملاحظة أن الاختلافات في ظروف الإضاءة وجودة الصورة في تايلاند قللت من فعالية الخوارزمية.

تسلط مثل هذه الحالات الضوء على الحاجة الماسة لتقييم أنظمة الذكاء الاصطناعي الطبية ليس فقط في البيئات البحثية المثالية، ولكن عبر مجموعة كاملة من البيئات السريرية في العالم الحقيقي وفئات المرضى التي ستُستخدم فيها. يجب أن يكون اختبار التحيز الصارم عنصراً أساسياً في عملية التحقق السريري، مما يضمن ألا تؤدي هذه التقنيات إلى تفاقم التفاوتات القائمة في مجال الرعاية الصحية.

بناء القدرات للتحقق المحلي

بالنظر إلى التحديات المتعددة الأوجه في اختبار الذكاء الاصطناعي الطبي، يبرز السؤال التالي: من يجب أن يكون مسؤولاً عن هذا العمل الحاسم؟ يرى البعض أنه يجب على كل مؤسسة رعاية صحية على حدة إجراء تقييماتها الخاصة قبل اعتماد أي أدوات ذكاء اصطناعي. ولكن كما تشير شونا أوفرجارد، المتخصصة في الذكاء الاصطناعي، فإن هذا يشكل عبئاً كبيراً، خاصة بالنسبة لمؤسسات الرعاية الصحية الأصغر حجماً.

ولمعالجة هذه المشكلة، بدأت تظهر جهود تعاونية لإنشاء مناهج أكثر مركزية وموحدة للتحقق من صحة الذكاء الاصطناعي الطبي. وقد اقترح التحالف من أجل الذكاء الاصطناعي الصحي، الذي يضم ممثلين عن الصناعة والأوساط الأكاديمية ومجموعات المرضى، إنشاء شبكة من "مختبرات ضمان الذكاء الاصطناعي الصحي" التي يمكنها تقييم النماذج باستخدام مجموعة من المبادئ المتفق عليها.

وفي الوقت نفسه، تهدف شراكة الذكاء الاصطناعي الصحي، التي تمولها مؤسسة جوردون وبيتي مور، إلى بناء المساعدة التقنية وقدرات التحقق المحلية داخل أي مؤسسة رعاية صحية تريد اختبار نماذج الذكاء الاصطناعي بنفسها. وكما يقول مارك سينداك، عالم البيانات السريرية في جامعة ديوك، "يجب أن يكون لكل مؤسسة قدراتها الداخلية وبنيتها التحتية الخاصة بها لإجراء هذا الاختبار أيضًا."

توافق نينا كوتلر من شركة Radiology Partners على أن التحقق المحلي أمر بالغ الأهمية، ولكنها تؤكد أيضًا على أهمية تثقيف المستخدمين النهائيين - الأطباء الذين سيشغلون أدوات الذكاء الاصطناعي هذه في الممارسة العملية. وتضيف: "لا يوجد تقريباً ذكاء اصطناعي مستقل في مجال الرعاية الصحية". "علينا أن نبدأ في التفكير في كيفية التأكد من أننا نقيس الدقة، ليس فقط دقة الذكاء الاصطناعي، ولكن الذكاء الاصطناعي بالإضافة إلى المستخدم النهائي."

نحو مستقبل الذكاء الاصطناعي الطبي المسؤول

لقد فاق الانتشار السريع للأجهزة الطبية التي تعمل بالذكاء الاصطناعي سرعة تطوير أطر عمل قوية للتحقق السريري من صلاحيتها السريرية وتنفيذها الأخلاقي. ونتيجة لذلك، غالبًا ما تُترك مؤسسات الرعاية الصحية لتبحر في هذه المياه المجهولة بمفردها، مع توجيه ودعم محدودين.

ومع ذلك، فإن مجتمع الذكاء الاصطناعي الطبي يلتف بشكل متزايد حول الحاجة إلى نهج أكثر صرامة وتعاونًا وتركيزًا على المريض. وتشمل الأولويات الرئيسية ما يلي:

1. تعزيز متطلبات التحقق السريري: يجب على الهيئات التنظيمية رفع مستوى الأدلة على التأثير في العالم الحقيقي، بما يتجاوز مجرد الأداء الخوارزمي لتقييم النتائج السريرية والسلامة والمساواة بين مختلف الفئات السكانية.

2. تعزيز التعاون بين أصحاب المصلحة المتعددين: يجب أن تعمل الصناعة والأوساط الأكاديمية ومقدمو الرعاية الصحية والمدافعون عن المرضى معًا لوضع مبادئ وعمليات موحدة لاختبار الذكاء الاصطناعي الطبي ونشره.

3. تمكين قدرات التحقق المحلية: تحتاج مؤسسات الرعاية الصحية من جميع الأحجام إلى الموارد التقنية والخبرة اللازمة لإجراء تقييم شامل لأدوات الذكاء الاصطناعي ضمن إعداداتها السريرية وسير العمل الخاصة بها.

4. التركيز على العنصر البشري: يجب تصميم التفاعلات بين أنظمة الذكاء الاصطناعي وأخصائيي الرعاية الصحية، وكذلك المرضى وعائلاتهم، ودراستها بعناية لضمان التكامل السلس والثقة.

5. معالجة الاعتبارات الأخلاقية: يجب معالجة قضايا موافقة المريض، وحوكمة البيانات، والتحيز الخوارزمي، والمساءلة بشكل استباقي لضمان تطبيق الذكاء الاصطناعي الطبي بطريقة أخلاقية ومنصفة.

من خلال تبني هذا النهج متعدد الأوجه للتطوير والنشر المسؤول للذكاء الاصطناعي يمكن للمجتمع الطبي الاستفادة من القوة التحويلية لهذه التقنيات مع الحد من المخاطر. إن المخاطر كبيرة، حيث أن حياة المرضى ورفاهيتهم على المحك. ولكن من خلال الاجتهاد والتعاون والالتزام الثابت بالتحقق السريري والتطبيق الأخلاقي، يمكن تحقيق وعد الذكاء الاصطناعي في الطب إلى أقصى إمكاناته.

انقر على TAGS للاطلاع على المقالات ذات الصلة :

الذكاء الاصطناعي | الطب | الطب الصيدلاني

نبذة عن الكاتب

  • ديلروان هيراث

    ديلروان هيراث هو طبيب بريطاني متخصص في الأمراض المعدية ومدير تنفيذي في مجال الأدوية الطبية ولديه خبرة تزيد عن 25 عامًا. بصفته طبيبًا، تخصص في الأمراض المعدية وعلم المناعة، وطور تركيزًا حازمًا على التأثير على الصحة العامة. طوال حياته المهنية، شغل الدكتور هيراث العديد من الأدوار القيادية الطبية العليا في شركات الأدوية العالمية الكبرى، وقاد التغييرات السريرية التحويلية وضمن الوصول إلى الأدوية المبتكرة. حاليًا، يعمل كعضو خبير في كلية الطب الصيدلاني في لجنة الأمراض المعدية ويواصل تقديم المشورة لشركات العلوم الحيوية. عندما لا يمارس الطب، يستمتع الدكتور هيراث برسم المناظر الطبيعية ورياضة السيارات وبرمجة الكمبيوتر وقضاء الوقت مع عائلته الصغيرة. يحافظ على اهتمامه الشديد بالعلوم والتكنولوجيا. وهو EIC ومؤسس DarkDrug.

ثبتها على بينتريست

دارك دارك دوغ

مجاناً
عرض