كشفت صحيفة وول ستريت جورنال أن أداة الذكاء الاصطناعي أنثروبيك المعروفة باسم «كلاود» استُخدمت في عملية عسكرية سرّية هدفت إلى اعتقال الرئيس الفنزويلي السابق نيكولاس مادورو، وفقاً لمصادر مطلعة.
وبحسب الصحيفة، شملت العملية قصف عدة مواقع في العاصمة كاراكاس خلال الشهر الماضي، في محاولة لإلقاء القبض على مادورو وزوجته. ويسلط هذا الاستخدام الضوء على التغلغل المتزايد لنماذج الذكاء الاصطناعي في العمليات العسكرية التابعة لـ وزارة الدفاع الأميركية (البنتاغون).
ويثير اللجوء إلى هذه التقنية تساؤلات أخلاقية وعملية، إذ تحظر إرشادات أنثروبيك استخدام «كلاود» في دعم العنف، أو تطوير الأسلحة، أو تنفيذ عمليات تجسس. وقال متحدث باسم الشركة إنها لا تستطيع التعليق على ما إذا كانت أداة «كلاود»، أو أي نموذج ذكاء اصطناعي آخر، قد استُخدمت في عمليات محددة، سواء كانت سرّية أم لا، مؤكداً أن أي استخدام للتقنية، في القطاعين الحكومي أو الخاص، يخضع لسياسات الاستخدام المعتمدة لدى الشركة، وأن أنثروبيك تعمل عن كثب مع شركائها لضمان الامتثال. من جهتها، امتنعت وزارة الدفاع الأميركية عن التعليق.
وتم تطبيق النظام، وفق التقرير، من خلال شراكة أنثروبيك مع شركة بالانتير تكنولوجيز المتخصصة في تحليل البيانات، والتي تعتمد عليها وزارة الدفاع ووكالات إنفاذ القانون الفيدرالية على نطاق واسع. وأفادت الصحيفة بأن مخاوف أنثروبيك من كيفية استخدام البنتاغون للحوسبة السحابية دفعت مسؤولين في الإدارة الأميركية إلى التفكير في إلغاء عقد مع الشركة بقيمة 200 مليون دولار، في حين لم ترد بالانتير فوراً على طلبات التعليق.
وتشير المعلومات إلى أن أنثروبيك كانت أول مطوّر لنماذج ذكاء اصطناعي يُستخدم في عمليات سرّية لوزارة الدفاع الأميركية. كما رجّحت المصادر أن تكون أدوات ذكاء اصطناعي إضافية قد استُخدمت في العملية الفنزويلية لأغراض غير قتالية، مثل تلخيص الوثائق أو دعم تشغيل طائرات مسيّرة ذاتية القيادة. ويرى مراقبون أن تبني الجيش الأميركي لهذه التقنيات يشكّل دفعة قوية لشركات الذكاء الاصطناعي الساعية إلى تعزيز مصداقيتها وتبرير التقييمات الضخمة التي حصلت عليها من المستثمرين.
وفي هذا السياق، برز دور الرئيس التنفيذي لشركة أنثروبيك داريو أمودي، الذي لطالما ناقش علناً قوة نماذج الذكاء الاصطناعي والمخاطر التي قد تشكلها على المجتمع. وتميّز أمودي بدعوته إلى مزيد من التنظيم والضمانات للحد من الأضرار المحتملة، رغم أن الشركة، التي ترفع شعار السلامة، شهدت مغادرة موظفين انتقدوا ما اعتبروه أولوية للنمو على حساب التطوير المسؤول.
وأدت هذه القيود إلى تصاعد الخلاف بين أنثروبيك وإدارة دونالد ترامب، التي اتهمت الشركة بتقويض استراتيجية البيت الأبيض القائمة على الحد الأدنى من التنظيم في مجال الذكاء الاصطناعي، عبر المطالبة بضمانات إضافية وقيود على تصدير رقائق الذكاء الاصطناعي. وفي فعالية عُقدت في يناير/كانون الثاني للإعلان عن تعاون البنتاغون مع شركة xAI، قال وزير الدفاع الأميركي بيت هاسيث إن الوكالة لن «تستخدم نماذج ذكاء اصطناعي لا تُمكّن من خوض الحروب»، في إشارة مباشرة إلى النقاشات مع أنثروبيك.
وكان عقد بقيمة 200 مليون دولار قد مُنح لأنثروبيك في الصيف الماضي، وسط خلافات تتعلق باستخدام الذكاء الاصطناعي في العمليات القاتلة ذاتية التشغيل والمراقبة الداخلية. ويُذكر أن أمودي ومؤسسين آخرين في أنثروبيك عملوا سابقاً في أوبن إيه آي، التي انضمت أخيراً إلى منصة جوجل لتقديم حلول ذكاء اصطناعي مخصصة للعسكريين، حيث أعلنت الشركة ووزارة الدفاع أن نسخة خاصة من ChatGPT ستُستخدم في تحليل الوثائق وإعداد التقارير ودعم الأبحاث.
ويعكس هذا الملف تداخلاً متسارعاً بين الذكاء الاصطناعي والعمليات العسكرية، في وقت تتصاعد فيه الأسئلة حول الحدود الأخلاقية والتشريعية لاستخدام هذه التقنيات في النزاعات والحروب.
