جريدة الكترونيةاخبارية دولية تتناول الأخبار والأحداث

إعلان الرئيسية

أبرز الأحداث

 



شدد باحثون في مجال الأمن السيبراني على أن الشركات التي تهرع للاعتماد على أنواع جديدة من الذكاء الاصطناعي ينبغي لها أن تتوخى الحذر عند استخدام الإصدارات مفتوحة المصدر من التكنولوجيا، والتي قد لا يعمل بعض منها حسبما تم الإعلان عنه، أو تنطوي على ثغرات يمكن استغلالها من قبل قراصنة.

أوضح هيروم أندرسون، المهندس الشهير من شركة "روبوست إنتليجنس" (Robust Intelligence)، وهي شركة أمن سيبراني للتعلّم الآلي تدرج وزارة الدفاع الأميركية باعتبارها أحد عملائها، أنه توجد طرق محدودة لمعرفة ما إذا كان نموذج ذكاء اصطناعي محدد، وهو برنامج مكون من خوارزميات يمكنه القيام بأمور على غرار توليد النصوص والصور والتنبؤات، آمن.

أضاف أندرسون، أنه أثبت أن نصف النماذج المتاحة للجمهور لتبويب الصور أخفقت في اجتياز 40% من اختباراته. وكان الهدف من الفحص تحديد ما إذا كان بإمكان عنصر ضار تعديل مخرجات برامج الذكاء الاصطناعي بأسلوب يمكن أن يمثل خطراً أمنياً، أو الإمداد بمعلومات مغلوطة

Back to top button