ميتا: فيديو الرئيس جو بايدن المزيف لا يمكن حذفه من “فيسبوك”

حث مجلس رقابة فيس بوك، شركة ميتا على تحديث سياستها الإعلامية التي تم التلاعب بها، واصفًا القواعد الحالية بأنها “غير متماسكة”، ويأتي هذا التحذير أعقاب قرار – تمت مراقبته عن كثب – بشأن مقطع فيديو تم تعديله بشكل مضلل للرئيس جو بايدن، وفقًا لموقع engadget.

وبحسب التقارير فقد امتنعت ميتا عن إزالة المقطع المنشور على فيس بوك، فيما انحاز مجلس الرقابة في النهاية إلى ميتا فيما يتعلق بقرارها.

وأظهر الفيديو لقطات تعود لأكتوبر 2022، عندما رافق الرئيس حفيدته التي كانت تصوت شخصيا لأول مرة، وتظهر اللقطات الإخبارية أنه بعد التصويت، قام بوضع ملصق “لقد صوتت” على قميصها، وشارك أحد مستخدمي فيسبوك في وقت لاحق نسخة معدلة ، ووصفه التعليق المصاحب للمقطع بأنه “متحرش بالأطفال”، وقال إن أولئك الذين صوتوا له كانوا “مرضى عقليين”.

قال مجلس الرقابة في قراره إن الفيديو لم يكن انتهاكًا لسياسة Meta، لأنه لم يتم تحريره باستخدام أدوات الذكاء الاصطناعي، ولأن التعديلات كانت “واضحة وبالتالي من غير المرجح أن تضلل” معظم المستخدمين، “ومع ذلك، يشعر مجلس الإدارة بالقلق إزاء سياسة وسائل الإعلام التي تم التلاعب بها في شكلها الحالي، ويجدها غير متماسكة وتفتقر إلى مبرر مقنع وتركز بشكل غير مناسب على كيفية إنشاء المحتوى بدلاً من التركيز على الأضرار المحددة التي تهدف إلى منعها.

تنطبق القواعد الحالية للشركة فقط على مقاطع الفيديو التي يتم تحريرها باستخدام الذكاء الاصطناعي، ولكنها لا تغطي أنواع التحرير الأخرى التي قد تكون مضللة، في توصياته المتعلقة بالسياسة إلى Meta، يقول مجلس الرقابة إنه يجب أن يكتب قواعد جديدة تغطي محتوى الصوت والفيديو، ويجب ألا تنطبق هذه السياسة على الخطاب المضلل فحسب، بل على “المحتوى الذي يُظهر أشخاصًا يفعلون أشياء لم يفعلوها”، ويقول المجلس إن هذه القواعد يجب أن تنطبق “بغض النظر عن طريقة الإنشاء”، علاوة على ذلك، يوصي المجلس بعدم قيام Meta بعد الآن بإزالة المنشورات التي تحتوي على وسائط تم التلاعب بها إذا كان المحتوى نفسه لا ينتهك أي قواعد أخرى.

بدلاً من ذلك، يقترح المجلس على Meta “تطبيق تصنيف يشير إلى أن المحتوى متعدد الطبقات بشكل كبير وقد يكون مضللاً”.

وتسلط التوصيات الضوء على القلق المتزايد بين الباحثين ومجموعات المجتمع المدني بشأن الكيفية التي يمكن بها للزيادة في أدوات الذكاء الاصطناعي أن تؤدي إلى ظهور موجة جديدة من المعلومات المضللة عن الانتخابات، وفي بيان، قال متحدث باسم ميتا إن الشركة “تراجع توجيهات مجلس الرقابة وسترد علنًا” خلال الستين يومًا القادمة، وفي حين أن هذا الرد سيأتي قبل الانتخابات الرئاسية لعام 2024، فمن غير الواضح متى أو ما إذا كانت هناك أي تغييرات في السياسة قد تحدث، وكتب مجلس الرقابة في قراره أن ممثلي Meta أشاروا إلى أن الشركة “تخطط لتحديث سياسة الوسائط التي تم التلاعب بها للاستجابة لتطور الذكاء الاصطناعي الجديد والواقعي بشكل متزايد”.

After Content Post
You might also like