تعوق اعتماد الذكاء الاصطناعي التوليدي في أوروبا والشرق الأوسط وأفريقيا قضايا الثقة والأخلاقيات والكفاءة
2 يونيو 2024
في السنوات الأخيرة، أثار الذكاء الاصطناعي التوليدي اهتماماً هائلاً وتوقعات هائلة لإمكاناته الثورية. فمنذ إطلاق ChatGPT من قبل OpenAI في نوفمبر 2022، كانت هذه التكنولوجيا محور نقاش مكثف، حيث اعتبرها الكثيرون أحد أهم الابتكارات في عصرنا الحالي. ومع ذلك، على الرغم من أن 79% من المؤسسات أفادت بأنالذكاء الاصطناعي التوليدي يساهم بشكل إيجابي في الأعمال، إلا أن هناك عددًا من التحديات المتعلقة بالثقة والأخلاقيات والمهارات تعيق اعتماده على نطاق واسع في كل من المجالين الشخصي والمهني للمستهلكين في أوروبا والشرق الأوسط وأفريقيا.
تأثير المعلومات الخاطئة وعدم الدقة والهلوسة في الذكاء الاصطناعي
تتعلق إحدى المشاكل الرئيسية بالثقة فيما ينتجه الذكاء الاصطناعي التوليدي. فأكثر من ثلث الجمهور يشعرون بالقلق من قدرة الذكاء الاصطناعي على توليد الأخبار الكاذبة (36%) وإساءة استخدامه من قبل القراصنة (42%)، بينما أفاد نصف قادة الأعمال أنهم مضطرون للتعامل مع المعلومات المضللة التي ينتجها الذكاء الاصطناعي التوليدي. وعلاوة على ذلك، فإن موثوقية المعلومات التي يوفرها الذكاء الاصطناعي التوليدي موضع تساؤل، حيث يعتقد 50% من الجمهور أن البيانات التي يتلقونها غير دقيقة ويرى 38% منهم أنها قديمة. على جانب الأعمال، تشمل المخاوف انتهاك حقوق النشر أو حقوق الملكية الفكرية (40%) وإنتاج مخرجات غير متوقعة أو غير مرغوب فيها (36%).
هناك مشكلة ثقة حاسمة لكل من الشركات (62%) والجمهور (74%) تتعلق بهلوسة الذكاء الاصطناعي، أي توليد مخرجات غير منطقية أو غير صحيحة. بالنسبة للشركات، يتمثل التحدي بالنسبة للشركات في تطبيق الذكاء الاصطناعي التوليدي على حالات الاستخدام المناسبة، مدعومًا بالتكنولوجيا المناسبة والتدابير الأمنية المناسبة، للتخفيف من هذه المخاوف. ما يقرب من نصف المستهلكين (45%) يدعمون إدخال تدابير تنظيمية بشأن استخدام الذكاء الاصطناعي.
لا تزال المخاوف والمخاطر الأخلاقية في استخدام الذكاء الاصطناعي التوليدي قائمة
بالإضافة إلى هذه التحديات، تظهر مشاعر قوية مماثلة حول المخاوف والمخاطر الأخلاقية المرتبطة بالذكاء الاصطناعي التوليدي بين قادة الأعمال والمستهلكين على حد سواء. أكثر من نصف الجمهور العام (53%) يعارضون استخدام الذكاء الاصطناعي التوليدي لاتخاذ قرارات أخلاقية. وفي الوقت نفسه، يشعر 41% من قادة الأعمال بالقلق من تطبيقه في مجالات اتخاذ القرارات الحرجة. هناك فروق في المجالات المحددة التي لا يشجع استخدامها فيها؛ فالمستهلكون يعارضون بشدة استخدامه في المجال السياسي (46%)، بينما تتخوف الشركات من استخدامه في مجال الرعاية الصحية (40%).
تجد هذه المخاوف بعض التأكيدات في نتائج البحث، والتي تشير إلى وجود ثغرات مقلقة في الممارسات التنظيمية. أكد ثلث القادة فقط أن شركاتهم تضمن أن البيانات المستخدمة لتدريب الذكاء الاصطناعي التوليدي متنوعة وخالية من التحيز. وعلاوة على ذلك، فإن 36% فقط من الشركات وضعت مبادئ توجيهية أخلاقية و52% منها فقط وضعت سياسات لخصوصية البيانات وأمنها لتطبيقات الذكاء الاصطناعي التوليدي.
هذا النقص في الاهتمام بسلامة البيانات والاعتبارات الأخلاقية يعرض الشركات للخطر. يشير 63% من قادة الأعمال إلى أن الأخلاقيات هي الشاغل الأكبر بالنسبة لهم فيما يتعلق بالذكاء الاصطناعي التوليدي، تليها قضايا البيانات (62%). يؤكد هذا السيناريو على أهمية تحسين الحوكمة لبناء الثقة وتخفيف المخاطر المرتبطة باستخدام الموظفين للذكاء الاصطناعي التوليدي في مكان العمل.
الدور المتنامي للمهارات في مجال الذكاء الاصطناعي التوليدي والحاجة إلى مزيد من المعرفة بالبيانات
مع تطور الذكاء الاصطناعي التوليدي، سيكون إنشاء المهارات ذات الصلة وتحسين الإلمام بالبيانات أمرًا أساسيًا لتحقيق إمكاناته الكاملة. يستخدم المستهلكون بشكل متزايد تقنيات الذكاء الاصطناعي التوليدي في سيناريوهات مختلفة، بما في ذلك استرجاع المعلومات والتواصل عبر البريد الإلكتروني واكتساب المهارات. يقول قادة الأعمال إنهم يستخدمون الذكاء الاصطناعي التوليدي لتحليل البيانات والأمن السيبراني ودعم العملاء، وعلى الرغم من نجاح المشاريع التجريبية، لا تزال بعض التحديات قائمة، بما في ذلك المخاوف الأمنية وقضايا خصوصية البيانات وجودة المخرجات وموثوقيتها.
أكدتريفور شولز، الرئيس التنفيذي للمعلومات في شركة ألتيريكس، على ضرورة أن تفهم الشركات وعامة الناس على حد سواء قيمة الذكاء الاصطناعي بشكل كامل ومعالجة المخاوف المشتركة أثناء تنقلهم في المراحل الأولى من تبني الذكاء الاصطناعي التوليدي. وأشار إلى أن معالجة قضايا الثقة، والمخاوف الأخلاقية، ونقص المهارات، والمخاوف المتعلقة بانتهاك الخصوصية، والتحيزات الخوارزمية هي مهام حاسمة. وأكد شولز على حاجة الشركات إلى تسريع رحلة إدارة البيانات، واعتماد حوكمة قوية وتمكين الأشخاص غير التقنيين من الوصول إلى البيانات وتحليلها بشكل آمن وموثوق، مع معالجة مخاوف الخصوصية والتحيزات، من أجل الاستفادة الحقيقية من هذه التكنولوجيا “الثورية”.
مصدر المقال هنا.