بالإضافة إلى كتابة المقالات والأغاني والرموز في ثوانٍ ، من المحتمل أن تجد ChatGPT طريقها إلى عيادة طبيبك – إذا لم تكن قد فعلت ذلك بالفعل.
الذي – التي على أساس الذكاء الاصطناعي chatbot ، الذي أصدرته شركة OpenAI في ديسمبر 2022 ، هو نموذج معالجة اللغة الطبيعية (NLP) الذي يعتمد على المعلومات من الويب لإنتاج ردود بتنسيق واضح ومحادثة.
على الرغم من أنه لا يُقصد منه أن يكون مصدرًا للنصائح الطبية الشخصية ، إلا أنه يمكن للمرضى استخدام ChatGPT للحصول على معلومات حول الأمراض والأدوية والموضوعات الصحية الأخرى.
الدردشة والصحة: هل يستطيع برنامج الدردشة المدعوم بالذكاء الاصطناعي تغيير تجربة المريض؟
يعتقد بعض الخبراء حتى أن التكنولوجيا يمكن أن تساعد الأطباء على تقديم علاج أكثر كفاءة وشاملة للمرضى.
دكتور. تينجلونج داي ، أستاذ إدارة العمليات في كلية جونز هوبكنز كاري للأعمال في بالتيمور، ماريلاندوخبير في الذكاء الاصطناعي ، قال إن نماذج اللغات الكبيرة (LLMs) مثل ChatGPT “رفعت مستوى اللعبة” في الذكاء الاصطناعي الطبي.

يعتقد بعض الخبراء أن روبوت الدردشة عبر الذكاء الاصطناعي ChatGPT يمكن أن يساعد الأطباء على توفير رعاية أكثر كفاءة وشاملة للمرضى. (آي ستوك)
“الذكاء الاصطناعي الذي نراه في المستشفى اليوم مبني لغرض معين ومُدرَّب على بيانات من حالات مرضية محددة – غالبًا لا يمكنه التكيف مع السيناريوهات الجديدة والمواقف الجديدة ولا يمكنه استخدام قواعد المعرفة الطبية أو أداء مهام التفكير الأساسية.” أخبر فوكس نيوز ديجيتال في رسالة بريد إلكتروني.
“تمنحنا LLM الأمل في أن الذكاء الاصطناعي العام ممكن في عالم الرعاية الصحية.”
دعم القرار السريري
يتمثل أحد التطبيقات المحتملة لـ ChatGPT في توفير دعم القرار السريري للأطباء والمهنيين الطبيين ومساعدتهم في اختيار خيارات العلاج المناسبة للمرضى.
في دراسة أولية من المركز الطبي بجامعة فاندربيلت ، قام الباحثون بتحليل جودة 36 اقتراحًا تم إنشاؤه بواسطة الذكاء الاصطناعي و 29 اقتراحًا من صنع الإنسان فيما يتعلق بالقرارات السريرية.
من أصل 20 إجابة حاصلة على أعلى الدرجات ، تسعة منها جاءت من ChatGPT.
وكتب الباحثون في نتائج الدراسة التي تم نشرها في المكتبة الوطنية لـ الدواء.
أشار داي إلى أنه يمكن للأطباء إدخال السجلات الطبية من مجموعة متنوعة من المصادر والتنسيقات – بما في ذلك الصور ومقاطع الفيديو والتسجيلات الصوتية ورسائل البريد الإلكتروني وملفات PDF – في نماذج لغات كبيرة مثل ChatGPT للحصول على آراء ثانية.
تنبؤات برنامج AI HEALTH بداء السكري بدرجة عالية من الدقة ولكن “لن يحل محل رعاية المريض”
وأضاف: “هذا يعني أيضًا أنه يمكن لمقدمي الخدمات إنشاء بوابات أكثر فعالية وكفاءة لمراسلة المرضى والتي تفهم ما يحتاجه المرضى وتوجههم إلى الأطراف الأكثر ملاءمة أو الاستجابة لهم بردود آلية”.
دكتور. جاستن نوردن ، خبير في الصحة الرقمية والذكاء الاصطناعي وأستاذ مساعد في جامعة ستانفورد في كاليفورنياقال إنه سمع كبار الأطباء يقولون إن ChatGPT ربما “جيد أو أفضل” من معظم المتدربين خلال عامهم الأول خارج كلية الطب.

يتمثل أحد التطبيقات المحتملة لـ ChatGPT في توفير دعم القرار السريري للأطباء والمهنيين الطبيين ومساعدتهم في اختيار خيارات العلاج المناسبة للمرضى. (آي ستوك)
وقال لشبكة فوكس نيوز ديجيتال في مقابلة: “نحن نرى خططًا طبية تم إنشاؤها في ثوانٍ”.
“يمكن استخدام هذه الأدوات لجذب المعلومات ذات الصلة إلى مقدم الخدمة ، للعمل كنوع من” مساعد الطيار “لمساعدة شخص ما على التفكير في أشياء أخرى قد يفكر فيها.”
التثقيف الصحي
نوردن متحمس بشكل خاص لاستخدام ChatGPT المحتمل للتثقيف الصحي في البيئات السريرية.
قال “أعتقد أن أحد الأشياء العظيمة حول هذه الأدوات هو أنه يمكنك أخذ مجموعة من المعلومات وتحويل شكلها للعديد من الجماهير واللغات ومستويات فهم القراءة”.
“حاليًا ، لدى ChatGPT مخاطر عالية جدًا لكونها” مخطئة بشكل غير مقبول “في كثير من الأحيان.”
على سبيل المثال ، يمكن لـ ChatGPT تمكين الأطباء من شرح المفاهيم والعلاجات الطبية المعقدة بشكل كامل لكل مريض بطريقة سهلة الهضم وسهلة الفهم ، كما قال نوردن.
قال نوردن: “على سبيل المثال ، بعد الخضوع لعملية جراحية ، يمكن للمريض الدردشة مع هذه المعلومات وطرح أسئلة متابعة”.
المهام الإدارية
قال نوردن إن أقل ثمار معلقة لاستخدام ChatGPT في الرعاية الصحية ، هي تبسيط المهام الإدارية ، وهي “عنصر وقت ضخم” للأطباء.
وقال ، على وجه الخصوص ، إن بعض مقدمي الخدمة يتطلعون إلى روبوتات الدردشة لتبسيط الملاحظات والتوثيق الطبي.
وقال: “على الجانب السريري ، بدأ الناس بالفعل في تجربة نماذج GPT للمساعدة في كتابة الملاحظات ، وإعداد ملخصات للمرضى ، وتقييم شدة المريض والعثور بسرعة على المعلومات السريرية”.

يعتقد بعض الخبراء أن نماذج لغة الذكاء الاصطناعي مثل ChatGPT يمكن أن تساعد في تبسيط تعليمات خروج المريض. (آي ستوك)
وأضاف نوردن “بالإضافة إلى ذلك ، من الناحية الإدارية ، يتم استخدامه للترخيص المسبق والفواتير والترميز والتحليل”.
وأشار نوردن إلى أن شركتي التكنولوجيا الطبية اللتين أحرزتا تقدمًا كبيرًا في هذه التطبيقات هما Doximity و Nuance.
أطلقت Doximity ، وهي شبكة طبية مهنية للأطباء ومقرها في سان فرانسيسكو ، منصة DocsGPT لمساعدة الأطباء على كتابة خطابات الضرورة الطبية ونداءات الرفض والمستندات الطبية الأخرى.
الذكاء الاصطناعي في مجال الصحة: منتج جديد يعمل كـ “طيار للأطباء”
تقوم Nuance ، وهي شركة تابعة لشركة Microsoft مقرها ماساتشوستس تقوم بإنشاء حلول رعاية صحية مدعومة بالذكاء الاصطناعي ، باختبار برنامج تدوين الملاحظات الخاص بها الذي يدعم GPT4.
قال نوردن إن الخطة هي البدء بمجموعة فرعية أصغر من مستخدمي الإصدار التجريبي وطرح النظام تدريجيًا إلى أكثر من 500000 مستخدم.
في حين أنه يعتقد أن هذه الأنواع من الأدوات لا تزال بحاجة إلى “قضبان حماية” تنظيمية ، إلا أنه يرى إمكانات كبيرة لهذا النوع من الاستخدام ، داخل وخارج الرعاية الصحية.
قال: “إذا كانت لدي قاعدة بيانات كبيرة أو كومة من المستندات ، يمكنني طرح سؤال طبيعي والبدء في سحب المعلومات ذات الصلة – فقد أظهرت النماذج اللغوية الكبيرة أنها جيدة جدًا في ذلك”.
خروج المريض من المستشفى
تتضمن عملية الخروج من المستشفى العديد من الخطوات ، بما في ذلك تقييم الحالة الطبية للمريض ، وتحديد رعاية المتابعة ، ووصف الأدوية وشرحها ، وتوفير قيود على نمط الحياة وغير ذلك ، وفقًا لجونز هوبكنز.
يعتقد نوردن أن نماذج لغة الذكاء الاصطناعي مثل ChatGPT يمكن أن تساعد في تبسيط تعليمات خروج المريض.
AI مقابل. السرطان: يقول باحث بجبل سيناي إن للتكنولوجيا الخارقة “تأثير جذري” على التشخيص والعلاج
وقال لشبكة فوكس نيوز ديجيتال: “هذا مهم للغاية ، خاصة بالنسبة لشخص كان في المستشفى لفترة من الوقت”.
المرضى “قد يكون لديهم الكثير من الأدوية الجديدةالأشياء التي يتعين عليهم القيام بها ومتابعتها ، وغالبًا ما يتم تركهم معهم [a] بضع قطع من الورق المطبوع وهذا كل شيء “.
وأضاف: “إن إعطاء شخص ما المزيد من المعلومات بلغة يفهمها ، بصيغة يمكنهم الاستمرار في التفاعل معها ، أعتقد أنه أمر قوي حقًا”.
تعتبر الخصوصية والدقة من المخاطر الرئيسية
في حين أن ChatGPT يمكن أن يبسط مهام الرعاية الصحية الروتينية ويزيد من وصول مقدمي الخدمة إلى كميات هائلة من البيانات الطبية ، إلا أنه لا يخلو من المخاطر ، وفقًا للخبراء.
دكتور. تيم أوكونيل ، نائب رئيس قسم المعلوماتية الطبية في قسم الأشعة في جامعة كولومبيا البريطانيةقال إن هناك خطرًا جسيمًا على الخصوصية عندما يقوم المستخدمون بنسخ ولصق الملاحظات السريرية للمرضى في خدمة قائمة على السحابة مثل ChatGPT.
“نريد أن تكون برامج الذكاء الاصطناعي الطبية جديرة بالثقة.”
“على عكس ChatGPT ، يتم نشر معظم حلول البرمجة اللغوية العصبية السريرية في تثبيت آمن بحيث لا تتم مشاركة البيانات الحساسة مع أي شخص خارج المنظمة ،” قال لـ Fox News Digital.
”كلا كندا وايطاليا أعلنت أنها تحقق مع شركة OpenAI [ChatGPT’s parent corporation] لمعرفة ما إذا كانوا يجمعون المعلومات الشخصية أو يستخدمونها بشكل غير لائق “.
بالإضافة إلى ذلك ، قال أوكونيل إن خطر قيام ChatGPT بتوليد معلومات خاطئة يمكن أن يكون خطيرًا.
وقال إن مقدمي الرعاية الصحية يصنفون بشكل عام الأخطاء على أنها “خطأ مقبول” أو “خطأ غير مقبول”.

في حين أن ChatGPT لديه القدرة على تبسيط مهام الرعاية الصحية الروتينية وزيادة وصول مقدمي الخدمة إلى كميات هائلة من البيانات الطبية ، إلا أنه لا يخلو من المخاطر ، كما يقول الخبراء. (غابي جونز / بلومبرغ عبر Getty Images)
وأوضح أن “مثال” الخطأ المقبول “هو عدم التعرف على كلمة ما لأن مقدم الرعاية يستخدم اختصارًا غامضًا”.
“الوضع” الخاطئ بشكل غير مقبول “هو عندما يرتكب النظام خطأً لا يرتكبه أي إنسان – حتى لو لم يكن محترفًا مدربًا.”
“من الصعب أن نرى كيف يمكن لمحرك توليد اللغة أن يقدم مثل هذه الضمانات.”
قال أوكونيل ، وهو أيضًا الرئيس التنفيذي لشركة Emtelligent ، إن هذا قد يعني اختراع أمراض لم يصاب بها المريض أبدًا – أو أن يصبح روبوت الدردشة عدوانيًا مع المريض أو يقدم له نصائح سيئة يمكن أن تضر به. شركة التكنولوجيا الطبية التي أنشأت محرك البرمجة اللغوية العصبية للنصوص الطبية.
انقر هنا للاشتراك في نشرتنا الإخبارية الصحية
وأضاف: “في الوقت الحالي ، فإن موقع ChatGPT لديه مخاطر عالية جدًا لكونه” مخطئًا بشكل غير مقبول “في كثير من الأحيان”. “لقد لاحظ الكثيرون أن بإمكان ChatGPT ابتكار حقائق تبدو معقولة باعتبارها واحدة من أكبر المشكلات المتعلقة باستخدام هذه التكنولوجيا في الرعاية الصحية.”
انقر هنا للحصول على تطبيق FOX NEWS
وتابع قائلاً: “نريد أن تكون برامج الذكاء الاصطناعي الطبية ذات مصداقية ، وأن تقدم إجابات يمكن شرحها أو التحقق من صحتها من قبل المستخدم ، وإنتاج مخرجات تتوافق مع الحقائق دون أي تحيز”.
“حاليًا ، لا تعمل ChatGPT بشكل جيد بعد في هذه الإجراءات ، ومن الصعب رؤية كيف يمكن لمحرك توليد اللغة أن يقدم مثل هذه الضمانات.”