OpenAI تشكل فريقًا جديدًا لتقييم “المخاطر الكارثية” للذكاء الاصطناعى

أعلنت شركة OpenAI تشكيل فريق جديد لتقييم نماذج الذكاء الاصطناعي للحماية مما تصفه بـ “المخاطر الكارثية”، وذكر موقع “تك كرانش” التقني أن مسؤوليات الفريق هي التتبع والتنبؤ والحماية من مخاطر أنظمة الذكاء الاصطناعي المستقبلية، بدءًا من قدرتها على إقناع البشر وخداعهم (كما هو الحال في التصيد الاحتيالي) وحتى قدراتها الضارة على توليد التعليمات البرمجية.

 

وسيعمل الفريق أيضًا على التخفيف من “التهديدات الكيميائية والبيولوجية والإشعاعية”، بالإضافة إلى “النسخ المستقل” أو قيام الذكاء الاصطناعي بتكرار نفسه ، وتشمل بعض المخاطر الأخرى التي سيتناولها فريق الاستعداد قدرة الذكاء الاصطناعي على خداع البشر، فضلاً عن تهديدات الأمن السيبرانى، وفقا لتقرير  theverge.

 

وقالت الشركة:” نحن نعتقد أن نماذج الذكاء الاصطناعي الحدودية، والتي ستتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا، لديها القدرة على إفادة البشرية جمعاء،” وكتب OpenAI في التحديث “لكنها تشكل أيضًا مخاطر شديدة بشكل متزايد.”

After Content Post
You might also like