قواعد التحديثات التعريفية للإعلان السياسي والذكاء الاصطناعي
10 يناير 2024
قواعد التحديثات التعريفية للإعلان السياسي والذكاء الاصطناعي : كشفت شركة فيسبوك يوم الثلاثاء عن مزيد من التفاصيل حول سياساتها بشأن الإعلانات السياسية. بما في ذلك التفويض الذي يكشفه المعلنون عندما يستخدمون الذكاء الاصطناعي لتغيير الصور ومقاطع الفيديو في بعض الإعلانات السياسية.
وأوضح نيك كليج، رئيس الشؤون العالمية في ميتا، السياسات الإعلانية الجديدة في منشور بالمدونة. ووصفها بأنها “متسقة إلى حد كبير” مع الطريقة التي تعامل بها عملاق الشبكات الاجتماعية عادةً مع قواعد الإعلان خلال الدورات الانتخابية السابقة.
قواعد التحديثات التعريفية للإعلان السياسي والذكاء الاصطناعي:
ومع ذلك. فإن الأمر المختلف بالنسبة لموسم الانتخابات المقبل هو الاستخدام المتزايد لتقنيات الذكاء الاصطناعي من قبل المعلنين لإنشاء مرئيات ونصوص يتم إنشاؤها بواسطة الكمبيوتر. توسعًا في إعلان سابق أصدرته Meta في أوائل نوفمبر، قال كليج إنه بدءًا من العام المقبل، ستطلب Meta من المعلنين الكشف عما إذا كانوا قد استخدموا الذكاء الاصطناعي أو تقنيات التحرير الرقمية ذات الصلة “لإنشاء أو تغيير إعلان قضية سياسية أو اجتماعية في حالات معينة”.
وكتب كليج: “ينطبق هذا إذا كان الإعلان يحتوي على صورة أو مقطع فيديو واقعي، أو صوت صوتي واقعي. تم إنشاؤه رقميًا أو تعديله لتصوير شخص حقيقي يقول أو يفعل شيئًا لم يقله أو يفعله”. “وينطبق أيضًا إذا كان الإعلان يصور شخصًا ذو مظهر واقعي غير موجود أو حدثًا ذو مظهر واقعي لم يحدث، أو يغير لقطات لحدث حقيقي. أو يصور حدثًا واقعيًا يُزعم أنه حدث، ولكن هذا ليس حقيقيًا صورة أو فيديو أو تسجيل صوتي للحدث.
سبق أن انتقد النقاد شركة Meta، وعلى الأخص خلال الانتخابات الرئاسية الأمريكية لعام 2016، لفشلها في مراعاة والحد من انتشار المعلومات الخاطئة على مجموعة تطبيقاته. بما في ذلك Facebook وInstagram. في عام 2019، سمحت ميتا ببقاء مقطع فيديو تم تعديله رقميًا لنانسي بيلوسي، والذي جعلها تبدو وكأنها تتلعثم في كلماتها من حالة سكر. على الموقع، ولكن هذا الفيديو لم يكن إعلانًا.
يمثل صعود الذكاء الاصطناعي كوسيلة لزيادة إنشاء الإعلانات المضللة مشكلة جديدة لعملاق الشبكات الاجتماعية. الذي قام بتسريح أعداد كبيرة من فريق الثقة والسلامة التابع له كجزء من جهود خفض التكاليف هذا العام.
ستقوم ميتا أيضًا بحظر إعلانات القضايا السياسية والانتخابية والاجتماعية الجديدة خلال الأسبوع الأخير من الانتخابات الأمريكية، والتي قال كليج إنها تتوافق مع السنوات السابقة. وسيتم رفع هذه القيود في اليوم التالي لإجراء الانتخابات.
وكتب كليج: “ينطبق هذا إذا كان الإعلان يحتوي على صورة أو مقطع فيديو واقعي. أو صوت صوتي واقعي، تم إنشاؤه رقميًا أو تعديله لتصوير شخص حقيقي يقول أو يفعل شيئًا لم يقله أو يفعله”. “وينطبق أيضًا إذا كان الإعلان يصور شخصًا ذو مظهر واقعي غير موجود أو حدثًا ذو مظهر واقعي لم يحدث، أو يغير لقطات لحدث حقيقي، أو يصور حدثًا واقعيًا يُزعم أنه حدث. ولكن هذا ليس حقيقيًا صورة أو فيديو أو تسجيل صوتي للحدث.
سبق أن انتقد النقاد شركة Meta، وعلى الأخص خلال الانتخابات الرئاسية الأمريكية لعام 2016. لفشلها في مراعاة والحد من انتشار المعلومات الخاطئة على مجموعة تطبيقاتها، بما في ذلك Facebook وInstagram. في عام 2019، سمحت ميتا ببقاء مقطع فيديو تم تعديله رقميًا لنانسي بيلوسي. والذي جعلها تبدو وكأنها تتلعثم في كلماتها من حالة سكر، على الموقع، ولكن هذا الفيديو لم يكن إعلانًا.
يمثل صعود الذكاء الاصطناعي كوسيلة لزيادة إنشاء الإعلانات المضللة مشكلة جديدة لعملاق الشبكات الاجتماعية. الذي قام بتسريح أعداد كبيرة من فريق الثقة والسلامة التابع له كجزء من جهود خفض التكاليف هذا العام.
ستقوم ميتا أيضًا بحظر إعلانات القضايا السياسية والانتخابية والاجتماعية الجديدة خلال الأسبوع الأخير من الانتخابات الأمريكية، والتي قال كليج إنها تتوافق مع السنوات السابقة. وسيتم رفع هذه القيود في اليوم التالي لإجراء الانتخابات.