دعا كبير مسؤولي الذكاء الاصطناعي في وزارة الدفاع الأمريكية، إلى مزيد من الشفافية من جانب مطوري الذكاء الاصطناعي عن كيفية عمل تقنياتهم.
ووفقا لموقع "بلومبرغ"، يعتقد كريغ مارتيل أن القسم يحتاج إلى معرفة المزيد عن أدوات الذكاء الاصطناعي قبل الالتزام الكامل باستخدامها.
ويريد مارتيل من الشركات أن تشارك الرؤى حول كيفية إنشاء برامج الذكاء الاصطناعي الخاصة بها حتى تشعر وزارة الدفاع الأمريكية "بالراحة والأمان عند اعتمادها".
حاليا، تعتمد برامج الذكاء الاصطناعي على نماذج اللغات الكبيرة (LLMs)، والتي تستخدم مجموعات بيانات ضخمة لتشغيل أدوات مثل برامج الدردشة الآلية ومولدات الصور. ومع ذلك، غالبا ما يتم تقديم هذه الخدمات دون الكشف عن أعمالها الداخلية، مما يجعل من الصعب على المستخدمين فهم كيفية وصول التكنولوجيا إلى القرارات أو كيفية تحسنها بمرور الوقت.
قلق أمريكي
أعرب مارتيل عن قلقه بشأن نقص المعلومات المتعلقة بالبيانات المستخدمة في هذه النماذج. كما سلط الضوء على المخاطر التي تشكلها أنظمة الذكاء الاصطناعي، والتي غالبا ما تفشل الشركات في الكشف عنها.
ولمعالجة هذه القضايا، يدعو مارتيل رواد الصناعة والأكاديميين إلى ندوة في واشنطن في شهر فبراير المقبل.
تهدف الندوة إلى تحديد الاستخدامات المناسبة للذكاء الاصطناعي داخل وزارة الدفاع (البنتاغون)، وتطوير المعايير المتعلقة بالقضايا الحساسة.
حدد فريق مارتيل بالفعل 200 استخدام محتمل للذكاء الاصطناعي داخل الوزارة، ويؤكد أنهم لا يريدون إيقاف استخدامه تماما، بل يريدون فهم فوائده ومخاطره.
لدى البنتاغون أكثر من 800 مشروع للذكاء الاصطناعي قيد التنفيذ، بعضها يتضمن أنظمة أسلحة. ونظراً للمخاطر الكبيرة التي تنطوي عليها هذه المشاريع، فإن البنتاغون سيطبق معايير أعلى فيما يتعلق بكيفية استخدامه للنماذج الخوارزمية مقارنة بالقطاع الخاص.
ويعتقد مارتيل أن الحصول على نتائج غير دقيقة هو ببساطة أمر غير مقبول، خاصة في المواقف الحرجة التي تكون فيها "حياة البشر على المحك".
من خلال السعي إلى مزيد من الشفافية والفهم لأدوات الذكاء الاصطناعي، تهدف وزارة الدفاع الأمريكية إلى ضمان التنفيذ المسؤول والفعال لتكنولوجيا الذكاء الاصطناعي في عملياتها.
التعليقات {{getCommentCount()}}
كن أول من يعلق على الخبر
رد{{comment.DisplayName}} على {{getCommenterName(comment.ParentThreadID)}}
{{comment.DisplayName}}
{{comment.ElapsedTime}}