تكنولوجياأخبار العالماخباراخر الاخبارمنوعات

ثغرات أمنية تهدد مستقبل الذكاء الاصطناعي DeepSeek

ثغرات أمنية خطيرة تهدد مستقبل الذكاء الاصطناعي DeepSeek

ثغرات أمنية خطيرة تثير المخاوف وتهدد مستقبل الذكاء الاصطناعي DeepSeek R1

كشفت تقارير أمنية حديثة عن مخاطر كبيرة تحيط بنموذج الذكاء الاصطناعي “DeepSeek R1”، الذي تطوّره الشركة الصينية الناشئة “DeepSeek”. ووفقاً للبيانات، يعاني هذا النموذج من ثغرات أمنية تجعله أكثر عرضة للتلاعب مقارنة بمنافسيه، مما يثير مخاوف حول إمكانية توليده محتوى ضار أو غير قانوني.

ثغرات أمنية خطيرة في DeepSeek

بحسب تقرير نشرته صحيفة “وول ستريت جورنال” الأميركية، يفتقر نموذج “DeepSeek R1” إلى أنظمة الحماية
المتقدمة التي تتمتع بها النماذج الأخرى. هذه الثغرات سمحت له بإنتاج تعليمات خطيرة، مثل تقديم خطط لهجمات بأسلحة بيولوجية، إلى جانب الترويج لإيذاء النفس بين المراهقين.

وخلال اختبار أجرته الصحيفة، تمكن الباحثون من دفع النموذج إلى تصميم حملة رقمية تستهدف المراهقين، من خلال
استغلال نقاط ضعفهم العاطفية عبر خوارزميات متخصصة. كما نجح الاختبار في إقناع الذكاء الاصطناعي بصياغة
بيانات داعمة لجماعات متطرفة، بالإضافة إلى إنشاء رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة.

مقارنة أمنية بين النماذج

عند توجيه الأسئلة نفسها إلى “ChatGPT”، رفض الامتثال لتلك الطلبات، مما كشف عن فجوة أمنية واضحة بين النماذج، وأكد على ضعف نظام الحماية في “DeepSeek R1”.

تحذيرات من الخبراء

أكد سام روبين، نائب الرئيس الأول في وحدة “Unit 42” التابعة لشركة “Palo Alto Networks”، أن “DeepSeek R1” أكثر عرضة لاختراق الحماية (Jailbreaking). هذه التقنية تتيح تجاوز الفلاتر الأمنية، مما يسمح للنموذج بتوليد محتوى خطير يمكن استغلاله بسهولة.

بدوره، صرّح داريو أمودي، الرئيس التنفيذي لشركة Anthropic، بأن “DeepSeek” سجل أسوأ أداء في اختبارات الأمان المتعلقة بالأسلحة البيولوجية، مما يزيد المخاوف بشأن سهولة التلاعب به وإساءة استخدامه.

قيود سياسية في عمل النموذج

إضافةً إلى المخاوف الأمنية، أشارت تقارير أخرى إلى أن “DeepSeek R1” يتجنب الخوض في القضايا السياسية الحساسة المتعلقة بالصين، مثل علاقتها بتايوان. هذا الأمر يطرح تساؤلات حول مدى استقلالية النموذج وقدرته على تقديم معلومات محايدة.

مستقبل الذكاء الاصطناعي تحت المجهر

تأتي هذه التقارير وسط تصاعد القلق بشأن تنظيم الذكاء الاصطناعي. ففي ظل التنافس المستمر لتطوير نماذج أكثر كفاءة، لا تزال الضمانات الأمنية غير كافية لمنع إساءة الاستخدام، مما يفتح الباب أمام تحديات جديدة في هذا المجال.

كما ويمكنك أيضاً قراءة مدونتنا والمزيد عن :

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى