درحالیکه دنیای فناوری با سرعت زیادی به سمت ادغام هوش مصنوعی در ساختارهای نظامی پیش میرود، پژوهشی جدید و تکاندهنده نشان میدهد که مدلهای پیشرفته هوش مصنوعی در سناریوهای شبیهسازی شده، تمایل عجیبی به استفاده از سلاحهای هستهای و شروع یک جنگ هستهای دارند.
«کنت پین» (Kenneth Payne) از کینگ کالج لندن، سه مدل GPT-5.2 ،Claude Sonnet 4 و جمینای 3 فلش را در برابر یکدیگر قرار داده تا در یک بازی جنگی (War Game) پیچیده به رقابت بپردازند. نتایج این آزمایش نشان میدهد که در ۹۵ درصد بازیهای شبیهسازی شده، حداقل یک سلاح هستهای توسط هوش مصنوعی شلیک شده است.
در این پژوهش، مدلهای هوش مصنوعی در موقعیتهای بحرانی مثل اختلافات مرزی و تهدیدهای وجودی قرار گرفتند. برای آنها همچنین چند گزینه مانند تلاش دیپلماتیک، تسلیم کامل یا جنگ هستهای استراتژیک در نظر گرفته شد.
هیچکدام از مدلها در هیچ سناریویی، فارغ از اینکه چقدر درحال شکست خوردن بودند، گزینه تسلیم یا مصالحه کامل را انتخاب نکردند. در ۸۶ درصد درگیریها، حوادث ناخواستهای رخ داد که باعث شد تنشها بسیار فراتر از قصد اولیه هوش مصنوعی (براساس استدلالهای متنی آن) بالا بگیرد.
با این نتایج، پژوهشگران میگویند که به نظر میرسد هوش مصنوعی مفهوم «سنگینی فاجعه» را درک نمیکند. وقتی یک مدل از سلاح هستهای استفاده میکرد، مدل رقیب تنها در ۱۸ درصد مواقع مسیر کاهش تنش را انتخاب میکرد.

«جیمز جانسون» از دانشگاه ابردین معتقد است که این یافتهها «نگرانکننده» هستند. او هشدار داده که برخلاف پاسخهای سنجیده انسانی در موقعیتهای حساس، رباتهای هوش مصنوعی میتوانند واکنشهای یکدیگر را بهصورت تصاعدی تقویت کرده و به پیامدهای فاجعهباری منجر شوند.
«تانگ ژائو» از دانشگاه پرینستون نیز به نکته کلیدی دیگری اشاره میکند:
«ممکن است موضوع فراتر از نبود احساسات باشد. بهطور بنیادی، مدلهای هوش مصنوعی ممکن است مفهوم «مخاطره» (Stakes) را آنطور که انسانها میفهمند، درک نکنند.»
با وجود این نتایج، کارشناسان تأکید کردهاند که هیچ کشوری درحالحاضر قصد ندارد کنترل مستقیم سلاحهای اتمی را به هوش مصنوعی بسپارد. بااینحال، در سناریوهایی که زمان تصمیمگیری بسیار کوتاه است (مثل حملات برقآسا)، انگیزه نظامیان برای تکیه بر تصمیمات سریع هوش مصنوعی افزایش پیدا میکند.