الرئيس بايدن يخاطب الرؤساء التنفيذيين للذكاء الاصطناعي
9 يونيو 2023
الرئيس بايدن يخاطب الرؤساء التنفيذيين للذكاء الاصطناعي : يوم الخميس ، التقى الرئيس جو بايدن بالرؤساء التنفيذيين لكبرى شركات الذكاء الاصطناعي ، بما في ذلك Google و Microsoft و OpenAI و Anthropic. الهدف هو التأكيد على أهمية ضمان سلامة منتجات الذكاء الاصطناعي قبل نشرها. في الاجتماع ، حث بايدن المديرين التنفيذيين على معالجة المخاطر المرتبطة بالذكاء الاصطناعي.
ومع ذلك ، انتقد بعض خبراء الذكاء الاصطناعي استبعاد باحثي الأخلاقيات الذين طالما حذروا من مخاطر الذكاء الاصطناعي. وفي الوقت نفسه ، اكتسبت نماذج الذكاء الاصطناعي التوليدية مثل ChatGPT شعبية هائلة في الأشهر الأخيرة. من خلال إثارة موجة من الضجيج التكنولوجي وتسريع تطوير منتجات مماثلة.
الرئيس بايدن يخاطب الرؤساء التنفيذيين للذكاء الاصطناعي:
أعرب البيت الأبيض عن مخاوفه بشأن انتهاكات الخصوصية المحتملة ، والتحيز الوظيفي ، وإمكانية استخدام الذكاء الاصطناعي لنشر المعلومات المضللة. خلال “مناقشة صريحة وبناءة” مع المديرين التنفيذيين ، دعت الإدارة إلى مزيد من الشفافية وتقييمات السلامة والحماية من الهجمات الخبيثة.
حضر الاجتماع شخصيات رفيعة المستوى. مثل Sundar Pichai من Google و Satya Nadella من Microsoft و Sam Altman من OpenAI و Anthropic’s Dario Amodei.
ترأست نائبة الرئيس كامالا هاريس الاجتماع ، وأظهر مقطع فيديو على تويتر الرئيس بايدن “يسقط” للتعبير عن امتنانه. أقر بايدن بالإمكانات والخطر الكبير للذكاء الاصطناعي ، وشدد على أهمية تثقيف المجتمع بشأن حمايته.
في العام الماضي ، أصدرت الإدارة “قانون حقوق الذكاء الاصطناعي” . وهو عبارة عن مجموعة من المبادئ التوجيهية لحماية الأمريكيين من التأثير السلبي للأنظمة الآلية . بما في ذلك انتهاكات الخصوصية والتمييز والتحيز.
النقاد يستجوبون اختيار الحضور في اجتماع البيت الأبيض للذكاء الاصطناعي
في حين أن دعوة الرئيس بايدن لكبار المسؤولين التنفيذيين في الذكاء الاصطناعي سلطت الضوء على الاهتمام التنفيذي بمسألة سياسية حاسمة . لم يتأثر النقاد بالاجتماع ، مما أثار تساؤلات حول اختيار الحاضرين من الشركات التي يعتقدون أنها ساهمت في قضايا الذكاء الاصطناعي التي يهدف البيت الأبيض إلى معالجتها.
أعربت الدكتورة تيمنيت جيبرو ، باحثة الذكاء الاصطناعي ، عن انتقاداتها على تويتر . قائلة إنه على الرغم من المحادثات الجارية مع المشرعين والوكالات ، لا تزال الصناعة تواجه مشكلات. ودعت كذلك إلى دعوة الأفراد الذين طردوا باحثي أخلاقيات الذكاء الاصطناعي لإثارة مخاوفهم ، ودعتهم إلى حماية حقوق الناس.
في عام 2020 ، طردت Google الدكتور Timnit Gebru لمشاركته في تأليف ورقة بحثية سلطت الضوء على المخاطر المحتملة والتحيزات في النماذج اللغوية واسعة النطاق ، مما أثار انتقادات من مجتمع أبحاث الذكاء الاصطناعي حول التزام الشركة بأخلاقيات الذكاء الاصطناعي.
كما شاركت إليزابيث رينيريس ، باحثة أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد ، خيبة أملها من الاجتماع ، وكتبت على تويتر أن المدعوين ليسوا الأشخاص المناسبين لتحديد ما هو مطلوب لحماية المجتمع من الذكاء الاصطناعي.
يعكس النقد جدلاً طويلاً بين مجتمعات “أمان الذكاء الاصطناعي” و “أخلاقيات الذكاء الاصطناعي” ، حيث يشعر الأول بالقلق إزاء المخاطر الوجودية الافتراضية من الذكاء الاصطناعي ، بينما يركز الأخير على سوء تطبيق وتأثيرات أنظمة الذكاء الاصطناعي الحالية ، بما في ذلك التحيز والمعلومات الخاطئة.
نقاد صناعة الذكاء الاصطناعي يدعون إلى مناقشات شاملة والمسؤولية الأخلاقية
اقترح الدكتور برانديز مارشال تنظيم “اجتماع مضاد” لاجتماع البيت الأبيض والذي سيشمل Hugging Face ومعهد أبحاث الذكاء الاصطناعي الموزع ومركز UCLA للاستعلام النقدي عبر الإنترنت ورابطة العدالة الخوارزمية.
وجاءت هذه الخطوة بعد أن شكك منتقدو السجلات الأخلاقية للشركات المدعوة في اختيار الحاضرين في اجتماع البيت الأبيض. في نفس اليوم ، أعلن البيت الأبيض عن استثمار بقيمة 140 مليون دولار لإطلاق سبعة معاهد بحثية للذكاء الاصطناعي من خلال مؤسسة العلوم الوطنية.
علاوة على ذلك ، ستشارك Anthropic و Google و Hugging Face و Nvidia و OpenAI و Stability AI في التقييمات العامة لأنظمة الذكاء الاصطناعي الخاصة بهم في DEF CON 31. وعقب الاجتماع ، صرحت نائبة الرئيس كامالا هاريس أنه يجب على كل شركة الامتثال للقوانين القائمة لحماية الشعب الأمريكي ولديه مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاتهم. إنها تتطلع إلى المتابعة والمتابعة في الأسابيع القادمة.