OpenAI تُنشئ لجنة أمنية مع بدء تدريب أحدث نماذج الذكاء الاصطناعي لديها
5 يونيو 2024
يشهد عالم الذكاء الاصطناعي (AI) تطوراً مستمراً، حيث تعمل الشركات الرائدة مثل OpenAI باستمرار على دفع حدود هذه التكنولوجيا الثورية. وفي تطور مهم حدث مؤخراً، أعلنت شركة OpenAI عن إنشاء لجنة جديدة للسلامة والأمن، والتي ستُكلَّف بتقديم المشورة لمجلس الإدارة بشأن “قرارات السلامة والأمن الحاسمة” لمشاريعها وعملياتها. تأتي هذه الخطوة في وقت يتزايد فيه الجدل حول أمن الذكاء الاصطناعي، حيث أثار بعض الخبراء مخاوف بشأن إعطاء الشركة الأولوية للمنتجات “اللامعة” على حساب الأمن.
تشكيل لجنة أمن OpenAI الجديدة
تتألف لجنة الأمن في OpenAI من عدد من المديرين التنفيذيين والخبراء الداخليين، بما في ذلك الرئيس التنفيذي سام ألتمان، والرئيس بريت تايلور، وأربعة خبراء تقنيين وخبراء في مجال السياسات من الشركة. تضم اللجنة أيضاً عضوين من مجلس الإدارة: آدم دي أنجيلو، الرئيس التنفيذي لشركة Quora، ونيكول سيليغمان، المستشار العام السابق لشركة Sony.
دور اللجنة الأمنية ومسؤولياتها
ستتمثل المهمة الأولى للجنة في تقييم عمليات الأمان والضمانات الأمنية لشركة OpenAI وتطويرها، ثم تقديم توصياتها إلى مجلس الإدارة في غضون 90 يومًا. وذكرت الشركة أيضًا أنها ستعلن عن التوصيات التي تتبناها، “بما يتوافق مع السلامة والأمان”.
تدريب الجيل التالي من نموذج الذكاء الاصطناعي للذكاء الاصطناعي من OpenAI
بالإضافة إلى إنشاء لجنة الأمان، أعلنت OpenAI أيضاً أنها بدأت مؤخراً في تدريب “نموذجها الحدودي” التالي، والذي من المتوقع أن يتفوق على نظام GPT-4 الذي يقوم عليه روبوت الدردشة ChatGPT الخاص بها. هذه النماذج الحدودية هي أقوى وأحدث أنظمة الذكاء الاصطناعي المتاحة حالياً.
تحديات أمن الذكاء الاصطناعي ودور الذكاء الاصطناعي المفتوح OpenAI
يأتي إنشاء لجنة أمان OpenAI في وقت يحتدم فيه النقاش حول أمن الذكاء الاصطناعي أكثر من أي وقت مضى. وقد انتقد بعض الخبراء الشركة لإعطائها الأولوية لتطوير “المنتجات اللامعة” على حساب الأمن، حيث استقال أحد الباحثين وأعرب عن مخاوفه بشأن ذلك. وقالت OpenAI إنها ترحب بـ “النقاش القوي” حول هذه القضايا المهمة.
التزام OpenAI بأمن وموثوقية الذكاء الاصطناعي
على الرغم من الانتقادات، ذكرت OpenAI أن نماذج الذكاء الاصطناعي الخاصة بها هي الأحدث من حيث القدرة والأمان. وتأمل الشركة أن تساعد لجنة الأمن الجديدة في تعزيز عملياتها وضماناتها، مما يضمن أن يكون الذكاء الاصطناعي الذي طورته OpenAI آمنًا وموثوقًا.
أهمية الشفافية والتعاون في قطاع الذكاء الاصطناعي
بينما تسعى OpenAI جاهدةً لتحسين أمن أنظمة الذكاء الاصطناعي الخاصة بها، من الضروري أن تظل الشركة شفافة وتتعاون مع مجتمع الخبراء الأوسع نطاقاً. وهذا من شأنه أن يعالج بشكل استباقي التحديات والمخاطر المرتبطة بتطوير هذه التقنيات المتطورة.
الدور الحاسم لحوكمة الذكاء الاصطناعي
يؤكد إنشاء لجنة أمن الذكاء الاصطناعي المفتوح على الأهمية الحاسمة لحوكمة الذكاء الاصطناعي. فمع تقدم الابتكار التكنولوجي بوتيرة مذهلة، من الضروري أن تعمل الشركات والهيئات التنظيمية معًا لضمان تطوير الذكاء الاصطناعي ونشره بطريقة آمنة ومسؤولة.
التأثير المحتمل لنموذج الذكاء الاصطناعي من الجيل التالي للذكاء الاصطناعي OpenAI
يمكن أن يكون لنموذج الذكاء الاصطناعي الجديد الذي تقوم شركة OpenAI بتطويره تأثير كبير على الصناعة، متجاوزاً قدرات نظام GPT-4 الذي يعمل به نظام ChatGPT. ومع ذلك، فمن الأهمية بمكان أن تعالج الشركة بشكل استباقي المخاوف المتعلقة بالأمان والموثوقية لهذا النظام المتطور.
الحاجة إلى نهج شامل لأمن الذكاء الاصطناعي
مع تركيز OpenAI على أمن نموذج الذكاء الاصطناعي التالي، من المهم إدراك أن أمن الذكاء الاصطناعي يتطلب نهجاً شاملاً لا يقتصر على الشركات فحسب، بل يشمل أيضاً الجهات التنظيمية والباحثين والمجتمع المدني الأوسع نطاقاً.
دور البحث والتطوير في أمن الذكاء الاصطناعي
بالإضافة إلى مبادرات الحوكمة، فإن جهود البحث والتطوير المستمرة ستكون أساسية لضمان أن تكون أنظمة الذكاء الاصطناعي من الجيل التالي آمنة وموثوقة. وسيتطلب ذلك التعاون بين الشركات والأكاديميين وغيرهم من الخبراء في هذا المجال.
الحاجة إلى حوار مفتوح وشفاف حول أمن الذكاء الاصطناعي
أخيراً، من الضروري أن يظل النقاش حول أمن الذكاء الاصطناعي مفتوحاً وشفافاً. فمن خلال تشجيع الحوار البنّاء بين جميع أصحاب المصلحة، يمكن تطوير مناهج أكثر فعالية لمواجهة التحديات والمخاطر المرتبطة بهذه التقنيات المتطورة.
مصدر المقال هنا.