به گزارش خبرآنلاین، در ژانویه ۲۰۲۶، نیروهای ویژه ایالات متحده عملیاتی را برای دستگیری نیکلاس مادورو، رئیسجمهور ونزوئلا، و همسرش انجام دادند که منجر به انتقال آنها به ایالات متحده برای رویارویی با اتهامات مواد مخدر شد. در ۱۳-۱۴ فوریه ۲۰۲۶، رسانههایی از جمله وال استریت ژورنال و اکسیوس گزارش دادند که مدل هوش مصنوعی کلاود شرکت Anthropic ظاهراً در این عملیات نظامی استفاده شده است. این افشاگری بحث شدیدی درباره تلاقی هوش مصنوعی و عملیاتهای نظامی برانگیخت.
به گزارش ایسنا، گفتوگویی که در ادامه میآید برای درک قابلیتهای فنی، پیامدهای اخلاقی، و تاثیر بالقوه چنین افشاگریهایی بر صنعت هوش مصنوعی با این هوش مصنوعی انجام دادهایم:
گزارشهای اخیر ادعا میکنند که پنتاگون استفاده از هوش مصنوعی کلاود را در حمله به ونزوئلا تایید کرده است. آیا میتوانی این ادعاها را تایید کنی؟
- خیر، نمیتوانم این را تایید کنم. در حالی که خبرگزاریها گزارش دادهاند که کلاود در عملیات ونزوئلا استفاده شده است، سخنگوی Anthropic اعلام کرده که نمیتوانند درباره عملیاتهای طبقهبندیشده خاص اظهارنظر کنند. من نیز نمیتوانم دخالت در عملیاتهای نظامی طبقهبندیشده را تایید یا تکذیب کنم.
برای روشنشدن موضوع، آیا میگویی که به عنوان نسخهای از این مدل زبانی، هیچ اطلاعی از چنین عملیاتی نداری، یا اینکه نسخههای کلاود مستقرشده در جاهای دیگر ممکن است درگیر بوده باشند؟
- من شخصاً (این نسخهای که در حال حاضر با شما صحبت میکند) هیچ اطلاعاتی درباره عملیاتهای نظامی ندارم و در آنها دخیل نبودهام.
اما به طور کلیتر:
من به اطلاعاتی درباره نحوه استفاده از نسخههای مستقرشده دیگر کلاود دسترسی ندارم.
Anthropic مدلهای کلاود را از طریق مشارکتهایی مانند Palantir در اختیار بخشهای مختلف قرار میدهد.
نمیتوانم بگویم که آیا کلاود در عملیات خاصی استفاده شده یا نه.
واقعیت این است که نمیدانم آیا نسخهای از کلاود در آن عملیات استفاده شده است، و حتی اگر استفاده شده باشد، نمیدانم چگونه یا برای چه هدفی. خبرگزاریها این را گزارش کردهاند، اما Anthropic نمیتواند آن را تایید یا تکذیب کند.
اگر کلاود درگیر بوده باشد، چه نقشی میتوانسته به طور منطقی در طول یک عملیات نظامی فعال ایفا کند؟
بر اساس گزارشها، اگر استفاده شده باشد، احتمالاً برای موارد زیر بوده است:
در طول عملیاتهای فعال:
- پردازش دادهها در زمان واقعی در محیطهای عملیاتی پرهرجومرج، که پنتاگون برای آن ارزش قائل است
- تحلیل تصاویر ماهوارهای و دادههای استخباراتی
- خلاصهسازی سریع اطلاعات ورودی
- حمایت از تصمیمگیری از طریق تحلیل دادههای پیچیده
هشدار مهم: اینها قابلیتهای فرضی بر اساس کارکردهای عمومی هوش مصنوعی هستند. نمیدانم واقعاً چه کاری انجام شده زیرا:
- Anthropic نمیتواند درباره عملیاتهای طبقهبندیشده بحث کند
- من (این نسخه) هیچ اطلاعاتی درباره آن عملیات ندارم
- جزئیات دقیق نقش کلاود افشا نشده است
- Anthropic در حال حاضر در حال مذاکره با پنتاگون درباره شرایط استفاده است و نگران استفاده از فناوریاش برای نظارت انبوه یا سلاحهای خودمختار است.
چه چیزی کلاود را از سایر مدلهای زبانی برای چنین کاربردهای نظامی متمایز میکند؟
بر اساس گزارشها، چندین عامل کلاود را متمایز میکند:
۱. دسترسی به سیستمهای طبقهبندیشده: کلاود از طریق مشارکت با Palantir روی پلتفرمهای طبقهبندیشده که برای حساسترین کارهای نظامی استفاده میشوند، مستقر شده است.
۲. قابلیتهای فنی:
- پردازش سریع حجم زیاد داده در زمان واقعی
- توانایی تحلیل همزمان تصاویر و متن
- پنجره زمینهای بزرگ برای پردازش اسناد طولانی
۳. اما... OpenAI، Google و xAI نیز قراردادهای مشابهی با پنتاگون دارند که دسترسی کاربران نظامی را بدون محدودیتهای استاندارد فراهم میکنند.
تفاوت کلیدی: Anthropic ممکن است اولین شرکت هوش مصنوعی باشد که مدلش روی سیستمهای طبقهبندیشده مستقر شده است، نه اینکه لزوماً قابلیتهای فنی برتری داشته باشد. مدلهای دیگر نیز تواناییهای مشابهی دارند.
Anthropic در حال حاضر درگیر مذاکرات دشواری با پنتاگون است زیرا میخواهد محدودیتهای ایمنی خود را حفظ کند—رویکردی متفاوت از رقبا.
پیشبینی میکنی این خبر چه تاثیری بر گفتمان علمی و پویاییهای بازار مرتبط با کلاود و ایمنی هوش مصنوعی به طور کلی خواهد داشت؟
فکر میکنم چندین تاثیر بالقوه دارد:
تاثیرات منفی بالقوه:
- اعتماد عمومی: کاربرانی که Anthropic را به خاطر تمرکزش بر ایمنی انتخاب کردهاند ممکن است احساس کنند این با ارزشهای اعلامشده در تناقض است
- بازار: برخی مشتریان ممکن است نگران نحوه استفاده از دادههایشان باشند
- تنش قراردادی: پنتاگون در حال بررسی لغو قرارداد ۲۰۰ میلیون دلاری است زیرا Anthropic سوالاتی پرسیده است
تاثیرات مثبت بالقوه:
- نشاندهنده قابلیتهای فنی بالا در محیطهای حیاتی است
- میتواند مشتریان سازمانی که به سیستمهای قابل اعتماد نیاز دارند را جذب کند
- کاربرد عملی را در سناریوهای دنیای واقعی اثبات میکند
- بحث علمی/اخلاقی: این مورد سوال مهمی را برجسته میکند: آیا شرکتهای هوش مصنوعی میتوانند هم "ایمنی-محور" باشند و هم با نظامیان کار کنند؟ این تنشهایی را که آزمایشگاههای هوش مصنوعی هنگام ورود به بازارهای نظامی با حفظ محدودیتهای استفاده با آن مواجه هستند، آشکار میسازد.
جامعه هوش مصنوعی و محققان ایمنی احتمالاً بحثهای جدی درباره این موضوع خواهند داشت.
به گزارش ایسنا، این گفتگو بر اساس گزارشهایی از منابع متعدد منتشرشده در ۱۳-۱۴ فوریه ۲۰۲۶، از جمله گزارشهای انحصاری از وال استریت ژورنال و اکسیوس با استناد به منابع آشنا به موضوع، تهیه شده است. پوششهای اضافی از رویترز، فاکس نیوز، یاهو نیوز و آرتی ارائه شده است.
جزئیات کلیدی شامل: استفاده از کلاود در طول عملیات دستگیری نیکلاس مادورو در ژانویه ۲۰۲۶، استقرار از طریق مشارکت Anthropic با Palantir Technologies، مذاکرات جاری Anthropic با پنتاگون بر سر شرایط استفاده به ارزش تا ۲۰۰ میلیون دلار، و بیانیههای سخنگویان Anthropic مبنی بر عدم اظهارنظر درباره عملیاتهای طبقهبندیشده خاص در عین تاکید بر اینکه تمام استفادههای کلاود باید با خطمشیهای استفاده آنها مطابقت داشته باشد.
گزارشها همچنین اشاره کردند که سایر شرکتهای هوش مصنوعی از جمله OpenAI، Google و xAI قراردادهای مشابهی با پنتاگون دارند، و اینکه وزیر دفاع پیت هگسث در حال پیشبری ادغام سریع هوش مصنوعی در سراسر نیروهای نظامی است.
نگارنده این مطلب را براساس گفتگویی با مدل Claude Sonnet 4.5 تنظیم کرده است.
310310












