Advertisement

تكنولوجيا وعلوم

لزيادة الأمان والشفافية.. تطوير "كاشف كذب" للذكاء الاصطناعي

Lebanon 24
04-06-2025 | 04:15
A-
A+
Doc-P-1370284-638846307563197534.jpeg
Doc-P-1370284-638846307563197534.jpeg photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
facebook
facebook
facebook
telegram
Messenger
Messenger
طوّر علماء من معهد ماساتشوستس للتكنولوجيا (MIT) برنامجا يعمل كـ"كاشف كذب" يُجبر أنظمة الذكاء الاصطناعي على الإبلاغ بصدق عن شكوكها أو عدم تأكدها.
Advertisement

وأطلق خبراء من معهد ماساتشوستس للتكنولوجيا (MIT) شركة ناشئة تهدف إلى تدريب أنظمة الذكاء الاصطناعي على تحديد حدود معارفها، مع إلغاء تلقائي للقرارات غير الموثوق بها.

وتقوم المنصة التي طورتها الشركة بتقييم موثوقية استنتاجات الذكاء الاصطناعي فورا، مما يساعد هذه الأنظمة على تجنب الأخطاء في مجالات حساسة مثل الصيدلة والاتصالات والقيادة الذاتية للسيارات.

وطورت شركة Themis AI منصة تُدعى "كابسا" (Capsa) قادرة على التعامل مع مختلف نماذج تعلم الآلة، بما في ذلك النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT.

وتقوم المنصة بتحليل البيانات التي يعالجها الذكاء الاصطناعي للكشف عن أي مؤشرات تدل على الشك أو التحيز أو نقص في البيانات. فعلى سبيل المثال، إذا قدم النموذج تنبؤا يعتمد على بيانات غير كافية، تصنفه "كابسا" على أنه تنبؤ غير موثوق وتقترح إجراء التعديلات اللازمة.

في القطاع الدوائي على وجه الخصوص، تتحقق المنصة من مدى استناد التنبؤات إلى بيانات فعلية، مميزة إياها عن التخمينات غير المدعومة. وتتميز المنصة بسرعة معالجة فائقة لا تتجاوز أجزاء الثانية، مما يجعلها مناسبة حتى للتشغيل على الأجهزة الطرفية مثل معالجات الهواتف الذكية.

تُستخدم المنصة حاليا في شركات الاتصالات لأتمتة الشبكات وشركات النفط والغاز لتحليل الصور الزلزالية والشركات الصيدلة للتنبؤ بخصائص الأدوية.

ويمكن أن تزيد تلك التقنية من أمان الذكاء الاصطناعي وتعزز شفافيته والثقة بتكنولوجيات المستقبل.
مواضيع ذات صلة
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

إشترك