تُظهر منتجات التكنولوجيا غالباً عادات الناس اليومية أكثر مما تُجسد "قفزات" رؤيوية؛ إذ تعكس اختصاراتهم ومخاوفهم وسلوكياتهم الصغيرة، فالتصميم يتبع السلوك، وكان الأمر كذلك دائماً. يستطيع أي شخص أن يتأمل ذلك بسهولة: غالباً ما يعرف كلٌّ منا شخصاً واحداً على الأقل يستخدم ChatGPT لطرح أسئلة صحية، ليس عرضاً، بل بانتظام، كـ"رأي ثانٍ"، أو كمساحة لاختبار المخاوف قبل البوح بها، وأحياناً كمعالج أو موضع ثقة أو مكان تختفي فيه مشاعر الإحراج.
عندما تترسخ هذه العادات، تتوقف الشركات عن الاكتفاء بالمراقبة وتبدأ بالبناء، وحينها لا يعود المستخدمون مجرد زبائن، بل يتحولون إلى "معماريين مشاركين"؛ إذ يسهم سلوكهم بهدوء في رسم خريطة تطوير المنتجات. يكتسب هذا السياق أهميته عند النظر إلى إعلان شركة OpenAI في 7 يناير 2026 إطلاق ChatGPT Health، وهي تجربة مخصصة مدعومة بالذكاء الاصطناعي تركز على الرعاية الصحية.
ووفقاً لـ "البوابة التقنية"، تصف OpenAI الخدمة بأنها "تجربة مخصصة تجمع بشكل آمن بين معلوماتك الصحية وذكاء ChatGPT"، في مسعى لمساعدة الناس على فهم صحتهم بشكل أفضل.
إطلاق تدريجي واستثناءات أوروبية
تبدأ OpenAI حالياً بطرح ChatGPT Health عبر قائمة انتظار، مع توسيع تدريجي خلال الأسابيع المقبلة. يمكن لأي مستخدم يملك حساباً على ChatGPT – سواء في النسخة المجانية أو المأجورة – أن يطلب الوصول المبكر، باستثناء المستخدمين في الاتحاد الأوروبي والمملكة المتحدة وسويسرا، إذ ما تزال الشركة تنتظر مواءمة تنظيمية مع القوانين المحلية.
230 مليون سؤال صحي أسبوعياً
يثير هذا الرقم أسئلة غير مريحة: لماذا يتجه هذا العدد الكبير من الناس إلى الذكاء الاصطناعي لطرح أسئلة صحية؟ هل الأمر متعلق بالسرعة وإمكان الحصول على إجابة فورية؟ أم أنه انعكاس لتحول توقعاتنا نحو الوضوح الفوري حتى في القضايا المعقدة أو الحساسة؟ هل يعود السبب إلى شعور بعدم الارتياح عند الحديث بصراحة مع الطبيب عن مواضيع معينة؟ أم أن هناك شيئاً أعمق، مثل تآكل صامت في الثقة بالأنظمة البشرية، يقابله تصاعد في الثقة بآلات لا تحكم علينا، ولا تقاطعنا، ولا تستعجلنا؟
لا يجيب ChatGPT Health عن هذه التساؤلات، بل يقنن السلوك القائم ويمنحه إطاراً رسمياً.
ربط آمن لبيانات الصحة الشخصية
توضح OpenAI أن مساحة Health الجديدة تتيح للمستخدمين ربط بياناتهم الصحية الشخصية بشكل آمن، بما يشمل السجلات الطبية ونتائج الفحوصات المخبرية والمعلومات الواردة من تطبيقات اللياقة والعافية.
يستطيع النظام دمج بيانات من منصات مثل Apple Health وMyFitnessPal وPeloton وAllTrails، وحتى بيانات المشتريات من Instacart، ما يفتح الباب أمام بناء صورة صحية أكثر اكتمالاً تعتمد على نمط الحياة الفعلي.
مساعد لا طبيب: خطوط حمراء واضحة
تؤكد OpenAI أن ما لا يفعله ChatGPT Health لا يقل أهمية عمّا يستطيع فعله؛ فهو ليس نصيحة طبية، ولا يضع تشخيصاً، ولا يصف علاجاً. صُممت الخدمة لدعم الرعاية، لا لاستبدالها. يعتمد هذا الإطار على تقديم ChatGPT Health كمساعد لا كمرجعية عليا، وكأداة لفهم الأنماط والاستعداد للحوار مع المختصين، وليس لاتخاذ قرارات صحية بمعزل عنهم. تُعد هذه التفرقة حاسمة، وهي نقطة يأمل كاتب المقال أن يأخذها المستخدمون على محمل الجد.
إشراف طبي واسع وHealthBench للتقييم
تشير OpenAI إلى أن تطوير النظام تم تحت إشراف طبي مكثف؛ إذ شارك أكثر من 260 طبيباً من نحو 60 دولة خلال العامين الماضيين في مراجعة الردود وتقديم التغذية الراجعة، ونتج عن ذلك أكثر من 600 ألف نقطة تقييم فردية. لم يقتصر التركيز على الدقة الطبية فحسب، بل شمل أيضًا النبرة ووضوح الشرح وتحديد اللحظات التي يجب فيها حث المستخدم بوضوح على طلب رعاية مهنية.
الخصوصية: بيئة معزولة ومشفرة
تُبرز OpenAI الخصوصية كمحور أساسي في ChatGPT Health؛ إذ يعمل هذا القسم في بيئة منفصلة ومعزولة داخل التطبيق. تُحفظ المحادثات الصحية ومصادر البيانات المربوطة والملفات المرفوعة بمعزل تام عن الدردشات المعتادة، ولا تنتقل هذه البيانات إلى "ذاكرة" ChatGPT العامة، كما تُشفّر المحادثات في هذه المساحة.
وصول إلى السجلات الطبية في الولايات المتحدة
تذهب الخدمة خطوة أبعد في الولايات المتحدة؛ إذ تتيح شراكة مع شركة b.well Connected Health إمكان وصول ChatGPT Health – بعد الحصول على إذن المستخدم – إلى السجلات الصحية الإلكترونية الحقيقية من آلاف مقدمي الخدمات. يتيح ذلك للخدمة تلخيص تقارير المختبر الرسمية أو تكثيف تواريخ طبية طويلة وتحويلها إلى ملخصات قابلة للقراءة والاستيعاب.
خارج الولايات المتحدة، تبدو القدرات أكثر محدودية إلى حد كبير، بسبب اختلاف الأطر التنظيمية والقانونية بين الدول.
تابعوا المزيد: تحديث جديد لـ ChatGPT يحوّل المحادثات الصوتية إلى تجربة بصرية
تأثير محتمل على علاقة الطبيب بالمريض
يمكن أن تظهر آثار لاحقة على مزودي الرعاية الصحية أيضاً؛ فإذا وصل المرضى إلى مواعيدهم ولديهم فهم أولي لبياناتهم، وهم ملمّون بالاتجاهات الصحية العامة لديهم، ومجهَّزون بأسئلة مركزة، فقد تصبح الاستشارات أكثر كفاءة، فيقضون وقتاً أقل في فك رموز الأرقام، ووقتاً أكبر لمناقشة الخيارات الطبية واتخاذ القرارات.
مسؤولية مشتركة وحدود الاستخدام
ما يغيّره ChatGPT Health هو نقطة الانطلاق في الحوار الصحي؛ إذ يمكن أن يساعد، عند استخدامه بشكل مسؤول، في دفع الناس إلى التفاعل مع معلوماتهم الصحية بدلًا من تجنبها. وفي المقابل، قد يسهم سوء استخدامه في تعزيز يقين زائف أو تأخير رعاية ضرورية.
تتوزع المسؤولية – كما يورد المقال – بين الأداة والمستخدم؛ إذ يتعين على الأفراد إدراك تبعات الخصوصية، وطلب المشورة المهنية عندما تكون المسألة مهمة، والتعامل مع إرشادات الذكاء الاصطناعي بوصفها مدخلًا واحدًا ضمن عدة مصادر، لا جواباً نهائياً.
يمكنكم متابعة آخر الأخبار عبر حساب سيدتي على منصة إكس





