mena-gmtdmp

أخطاء فادحة ترتكبها الشركات عند استخدام الذكاء الاصطناعي

أخطاء عند استخدام الذكاء الاصطناعي -الصورة من freepik
أخطاء عند استخدام الذكاء الاصطناعي -الصورة من freepik

الذكاء الاصطناعي أداة قوية للشركات؛ فهو يحسن الكفاءة، ويطور تجربة العملاء، ويدعم القرارات الذكية، ويسهم في الابتكار، ويقلل التكاليف، لكن يجب استخدامه بمسؤولية وأخلاقية حيث تواجه الشركات العديد من التحديات والأخطاء عند تطبيق تقنيات الذكاء الاصطناعي.
و للتعرف إلى الأخطاء الشائعة التي يقع فيها رواد الأعمال، التقت "سيدتي" المهندس عمرو صويرة، مصمم ورائد أعمال، الذي أكد أن الذكاء الاصطناعي يمكن أن يساعد على النمو السريع للشركات الرائدة، بشرط تجنب هذه الأخطاء.

أخطاء يرتكبها الذكاء الاصطناعي

المهندس عمرو صويرة مصمم ورائد أعمال


من جانبه حدد المهندس عمرو مجموعة من الأخطاء، بحسب تحليل سلوك رواد الأعمال على مدار الفترة السابقة، ونصح بضرورة الانتباه لها.

التحيز

قد تكون البيانات التي يتم تدريب نماذج الذكاء الاصطناعي عليها غير ممثلة لجميع الفئات السكانية، ويمكن أيضاً أن تعكس البيانات تحيزات موجودة في المجتمع، مثل التحيزات الجنسية أو العرقية، وممكن أن يتم جمع البيانات بطرق متحيزة؛ ما يؤدي إلى نتائج مغلوطة. وبناءً على ذلك فإن الذكاء الاصطناعي يتخذ قرارات تمييزية ضد فئات معينة. وقد يؤدي ذلك إلى الإضرار بسمعة الشركة وفقدان ثقة العملاء ويعرض الشركة لمخاطر قانونية.
مثلاً، في مجال التوظيف، اضطرت أمازون إلى إلغاء أداة ذكاء اصطناعي للتوظيف بسبب تحيزها ضد المرشحات الإناث. وكشفت دراسات أخرى أن أدوات فحص السيرة الذاتية التي تعمل بالذكاء الاصطناعي تفضل بشكل كبير المرشحين البيض والذكور. بالإضافة إلى ذلك، لا تزال تقنية التعرف إلى الوجوه أقل دقة بالنسبة للأشخاص ذوي البشرة الداكنة؛ ما أدى إلى حالات اعتقال خاطئة. هذه النتائج تسلط الضوء على الآثار العملية الضارة للتحيز في الذكاء الاصطناعي على الأفراد.

افتقاد الشفافية

نماذج الذكاء الاصطناعي معقدة -المصدر freepik


نماذج الذكاء الاصطناعي معقدة للغاية؛ ما يجعل من الصعب فهم كيفية عملها وبعض الشركات لا يكون لديها آليات كافية لشرح قرارات الذكاء الاصطناعي أو لا يوجد وعي كافٍ بأهمية الشفافية في استخدامات الذكاء الاصطناعي.
يصعب على الشركات تحديد الأخطاء وتصحيحها. ويفقد العملاء الثقة في الذكاء الاصطناعي إذا لم يفهموا كيفية عمله؛ ما يؤدي إلى صعوبات في تطبيق القوانين والتشريعات المتعلقة بالذكاء الاصطناعي. مثال على ذلك نظام ذكاء اصطناعي يُستخدم لتحديد الجدارة الائتمانية قد يرفض طلبات بعض العملاء من دون تقديم أسباب واضحة.
تستخدم بعض البنوك والمؤسسات المالية أنظمة ذكاء اصطناعي لتقييم الجدارة الائتمانية للمقترضين. في بعض الحالات، تم رفض طلبات قروض من دون تقديم أسباب واضحة؛ ما أثار تساؤلات حول كيفية اتخاذ هذه الأنظمة للقرارات. نقص الشفافية في هذه الأنظمة يجعل من الصعب على الأفراد فهم سبب رفض طلباتهم، ويجعل من الصعب أيضاً التحقق من وجود تحيزات في هذه الأنظمة.

انعدام الأمان

أنظمة الذكاء الاصطناعي عرضة للهجمات الإلكترونية، مثل هجمات التصيد الاحتيالي أو هجمات البرامج الضارة ويتم استغلال نقاط الضعف في نماذج الذكاء الاصطناعي للتلاعب بالبيانات أو النتائج. وكذلك قلة الوعي بالمخاطر الأمنية للذكاء الاصطناعي؛ فقد تتم سرقة البيانات الحساسة أو التلاعب بها واستخدام الذكاء الاصطناعي لشن هجمات إلكترونية على أنظمة أخرى، ما يؤدي ذلك إلى خسائر مالية فادحة للشركة؛ فقد يتم اختراق نظام ذكاء اصطناعي يُستخدم لتشغيل سيارة ذاتية القيادة، ما يؤدي إلى وقوع حوادث.
تسببت أخطاء في أنظمة الذكاء الاصطناعي في وقوع حوادث للسيارات ذاتية القيادة، بعضها أدى إلى إصابات خطيرة ووفيات. وقعت عدة حوادث لسيارات تابعة لشركة تسلا كانت تعمل بنظام القيادة الذاتية، وذلك نتيجة أخطاء في التعرف إلى العوائق وتحديد المسارات.

الاعتمادية

تميل الشركات إلى الاعتقاد بأن الذكاء الاصطناعي يمكن أن يحل جميع المشكلات؛ فيتم تقليل قيمة الخبرة البشرية في اتخاذ القرارات والرغبة في تقليل التكاليف عن طريق الاستغناء عن العنصر البشري.
نتيجة ذلك يتم اتخاذ قرارات خطأ إذا لم يتم أخذ العوامل البشرية في الاعتبار، وتفقد الشركة القدرة على التعامل مع المواقف غير المتوقعة وتدهور مستوى الخدمة المقدمة للعملاء، حين استخدام شركة نظام ذكاء اصطناعي للرد على استفسارات العملاء من دون توفير خيار للتحدث مع ممثل خدمة العملاء.
أدى استخدام أنظمة الذكاء الاصطناعي في المجال الطبي إلى بعض الأخطاء في التشخيص والعلاج، وذلك بسبب التحيز في البيانات أو عدم دقة الخوارزميات. بعض الأنظمة الطبية للذكاء الاصطناعي أدت إلى تشخيصات خاطئة، وذلك بسبب عدم دقة البيانات التي تم تدريبها عليها.

الأخلاق

لا توجد قوانين وتشريعات كافية لتنظيم استخدام الذكاء الاصطناعي، ولا توجد لدى الشركات مبادئ أخلاقية واضحة لاستخدام الذكاء الاصطناعي. حيث التركيز على تحقيق الأرباح من دون الأخذ في الاعتبار الآثار الأخلاقية.
يؤدي ذلك لاستخدام الذكاء الاصطناعي بطرق غير أخلاقية، مثل انتهاك الخصوصية أو التمييز. وإلى الإضرار بسمعة الشركة وفقدان ثقة العملاء. وقد يؤدي إلى مشاكل قانونية؛ فقد تستخدم شركة تقنية التعرف إلى الوجه لمراقبة موظفيها من دون الحصول على موافقتهم.
اعتماد بعض المواقع على المحتوى الناتج من الذكاء الاصطناعي على معلومات خطأ ومضللة، خاصة في مجال الأخبار، وقد ظهرت بعض الحالات التي نشرت فيها أدوات الذكاء الاصطناعي نصوصاً دينية خطأ.

كيف تتجنب الشركات أخطاء الذكاء الاصطناعي؟

الحفاظ على التوازن بين الذكاء الاصطناعي والقدرات البشرية -المصدر freepik


يقول المهندس عمرو صويرة إنه لتجنب هذه الأخطاء، يجب على الشركات:

  • الحرص على استخدام بيانات متنوعة وغير متحيزة.
  • العمل على جعل أنظمة الذكاء الاصطناعي أكثر شفافية.
  • اتخاذ تدابير أمنية قوية لحماية هذه الأنظمة.
  • الحفاظ على التوازن بين الذكاء الاصطناعي والقدرات البشرية.
  • تقييم التكاليف والفوائد بعناية.
  • الاستثمار في التدريب وتطوير المهارات.
  • وضع مبادئ أخلاقية واضحة لاستخدام الذكاء الاصطناعي.

اقرأوا أيضاً الأهداف التسويقية للشركات: كيف يتم تحديدها بطريقة صائبة؟