استضافت شركة سامسونغ إلكترونيكس لجنة من الخبراء العالميين لمناقشة تحديات أمان الذكاء الاصطناعي في معرض CES 2026 بلاس فيغاس. جمعت جلسة “هل نثق بالتكنولوجيا؟ إعادة التفكير في الأمان والخصوصية في عصر الذكاء الاصطناعي” قادة التكنولوجيا لدراسة كيف تؤثر الثقة على تبني الذكاء الاصطناعي.
بناء الثقة من خلال أنظمة الذكاء الاصطناعي الشفافة
أكد خبراء الصناعة أن أمان الذكاء الاصطناعي يجب أن يُكتسب من خلال السلوك المتسق والمفهوم بدلاً من الوعود. شمل المشاركون آلي ك. ميلر من Open Machine، وإيمي ويب من Future Today Strategy Group، وزاك كاس من ZKAI Advisory، وشين بايك رئيس مركز منصة الذكاء الاصطناعي في سامسونغ.
قدمت سامسونغ نهجها في التصميم القائم على الثقة، مع التركيز على أنظمة الذكاء الاصطناعي القابلة للتنبؤ والشفافة التي يمكن للمستخدمين التحكم فيها بسهولة. سلطت الشركة الضوء على كيف يحافظ الذكاء الاصطناعي على الجهاز على البيانات الشخصية محلياً عند الإمكان.
عندما يتعلق الأمر بالذكاء الاصطناعي، يبحث المستخدمون عن الشفافية والتحكم. يريدون أن يكونوا قادة في تجاربهم الشخصية وأن يفهموا ما إذا كان نموذج الذكاء الاصطناعي يعمل محلياً أم في السحابة.آلي ك. ميلر، الرئيس التنفيذي لـ Open Machine
منصة سامسونغ Knox تعزز أمان الذكاء الاصطناعي
مع انتشار ذكاء الذكاء الاصطناعي عبر الهواتف وأجهزة التلفزيون والأجهزة المنزلية، عرضت سامسونغ منصة Knox الأمنية التي تحمي الآن مليارات الأجهزة من مستوى الرقاقة. كما قدمت الشركة Knox Matrix، إطار عمل أمني متعدد الأجهزة.
ينشئ نظام Knox البيئي شبكة تراقب فيها الأجهزة بعضها البعض باستمرار، حيث يعمل كل جهاز كدرع للآخرين. يبني هذا النهج بيئة أمنية مرنة يمكن للمستخدمين الاعتماد عليها عبر أجهزتهم المتصلة.
الشراكات الصناعية تقود ابتكار أمان الذكاء الاصطناعي
أكدت سامسونغ على شراكاتها مع جوجل ومايكروسوفت لتعزيز البحث الأمني المشترك والحماية على مستوى النظام البيئي. لاحظ الخبراء أنه بينما يطرح الذكاء الاصطناعي تحديات مثل المعلومات المضللة، ستلعب التكنولوجيا نفسها دوراً حاسماً في تطوير التدابير المضادة.
خلصت اللجنة إلى أن النجاح طويل المدى في تبني الذكاء الاصطناعي يعتمد على التقنيات التي تعطي الأولوية للأمان والشفافية وخيارات المستخدم الهادفة من البداية.
