منتقدان هوش مصنوعی نگرانند که این فناوری از طریق یادگیری ماشین به سطح «فرا هوش» برسد، از عملکرد شناختی انسانها تقریباً در تمام حوزههای مرتبط پیشی بگیرد و در نهایت این امکان را برایش فراهم کند که بر بشریت مسلط شود.
عصر ایران- در حالی که ناتو در برابر حملات پهپادی غافلگیر شده، ارتشها در سراسر جهان در حال مسلح شدن به سیستمهای تسلیحاتی خودمختار هستند. این یادداشت نشان میدهد که چگونه هوش مصنوعی از یک ابزار فناورانه به سلاحی استراتژیک در دست قدرتهایی مانند روسیه برای انتشار اطلاعات نادرست و اسرائیل برای هدفگیری انبوه تبدیل شده و قواعد جنگ را برای همیشه تغییر داده است.
کارل-پیتر شوارتز (Karl-Peter Schwarz) در یادداشتی که در GIS منتشر شد، به موضوع خطرات هوش مصنوعی برای جوامع بشری پرداخته است.
در این یادداشت آمده: در ماه مه ۲۰۲۳، جفری هینتون، پیشگام هوش مصنوعی، پس از بیش از ۱۰ سال کار در غول فناوری گوگل، از این شرکت جدا شد. این برنده جایزه نوبل فیزیک، نسبت به توسعه فناوری چتباتهای مبتنی بر هوش مصنوعی که عمدتاً بر اساس تحقیقات خود او در زمینه شبکههای عصبی است، هشدار داد.
آقای هینتون گفت: مردم در حال حاضر آنقدر با عکسها، ویدئوها و متون جعلی در اینترنت مواجه هستند که در معرض خطر از دست دادن توانایی تشخیص واقعیت از خیال قرار گرفتهاند. او افزود: خطرات به مراتب بزرگتری از نابودی مشاغل در مقیاس وسیع و خودکارسازی جنگ نشأت میگیرد.
هینتون زمانی معتقد بود که ۳۰ تا ۵۰ سال دیگر طول میکشد تا هوش مصنوعی از هوش انسان پیشی بگیرد، اما دیگر چنین دیدگاهی ندارد.
مانند آقای هینتون، غولهای فناوری چون ایلان ماسک، استوارت راسل، استیو وازنیاک و هزاران پژوهشگر و مدیر دیگر، خواستار توقف آموزش سیستمهای هوش مصنوعی بسیار کارآمد برای حداقل شش ماه شدهاند.
در نامه سرگشاده آنها آمده است: سیستمهای قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که ما مطمئن باشیم اثرات آنها مثبت و خطراتشان قابل مدیریت خواهد بود. اگر چنین توقفی به سرعت قابل اجرا نباشد، دولتها باید وارد عمل شده و یک مهلت قانونی (Moratorium) وضع کنند.
این نامه اکنون نزدیک به ۳۴۰۰۰ امضاکننده دارد. منتقدان هوش مصنوعی نگرانند که این فناوری از طریق یادگیری ماشین به سطح «فرا هوش» برسد، از عملکرد شناختی انسانها تقریباً در تمام حوزههای مرتبط پیشی بگیرد و در نهایت این امکان را برایش فراهم کند که بر بشریت مسلط شود.
هیچ اجماع گستردهای در مورد اینکه آیا یک ماشین متفکر هرگز قادر خواهد بود نه تنها روشها، بلکه هدف خود را نیز تعریف کند وجود ندارد. ویژگیای که منحصربهفرد هوش انسانی است. دو فرض اساسی اغلب این بحث را شکل میدهند: اینکه سیستمهای غیرانسانی به روشهایی قابل مقایسه با ذهن انسان عمل میکنند، و اینکه هوش مستقل از شرایط اجتماعی، فرهنگی و تاریخی که به آن معنا میبخشد، وجود دارد.
گسترش اطلاعات نادرست تولید شده توسط هوش مصنوعی
علیرغم هشدارهای متعدد، شرکتهای بزرگ فناوری از سرعت خود در پیگیری فرا هوش نکاستهاند. برعکس، رقابت آنها را به شتاب بیشتر واداشته و فقدان یک چارچوب قانونی بینالمللی الزامآور به این معناست که هیچ محدودیت واقعی برای تحقیق در این حوزه وجود ندارد.
شروع عصر جدید جنگ هیبریدی با هوش مصنوعی؛ چگونه رباتهای قاتل و پروپاگاندا امنیت جهانی را بازتعریف میکنند؟ روشن است که هوش مصنوعی جهان را دگرگون خواهد کرد. اما، در حالی که میتوان با دقت نسبی حدس زد که در کوتاهمدت چه چیزهایی را تغییر خواهد داد، پیشبینیهای میانمدت یا بلندمدت بسیار کمتر قابل اعتماد هستند.
تحولاتی که هماکنون در حال وقوع هستند، چشمگیرند. هشدار آقای هینتون مبنی بر اینکه انسانها ممکن است به زودی نتوانند حقیقت را از دروغ تشخیص دهند، هر روز در حال تأیید شدن است. تحقیقات اخیر این تصور را که سیستمهای هوش مصنوعی مولد میتوانند به طور قابل اعتمادی اطلاعات نادرست را در رسانههای اجتماعی شناسایی و اصلاح کنند، رد میکند.
در واقع، احتمال اینکه این ابزارها ادعاهای نادرست در مورد رویدادهای جاری را منتشر کنند، در یک سال تقریباً دو برابر شده است. در یک مطالعه، ۳۵ درصد از پاسخهای تولید شده توسط هوش مصنوعی حاوی اطلاعات نادرست بودند، در حالی که سهم سؤالات بیپاسخ از ۳۱ درصد در اوت ۲۰۲۴ به صفر کاهش یافت – به این معنی که هوش مصنوعی حتی زمانی که دادهای برای توجیه یک گزاره وجود ندارد، باز هم پاسخی ارائه میدهد.
این سیستمها به جای اذعان به محدودیتهای خود، به طور فزایندهای در حال تبدیل شدن به مجرایی برای اطلاعات نادرست هستند. بازیگران حوزه اطلاعات نادرست (Disinformation actors) وب را با مطالب ساختگی از طریق وبسایتهای ناشناس، پستهای رسانههای اجتماعی و مزارع محتوای تولید شده توسط هوش مصنوعی پر میکنند، که چتباتها قادر به تشخیص آنها از رسانههای معتبر نیستند. تلاشها برای بهروزتر و آموزندهتر کردن این سیستمها، به طرزی کنایهآمیز، آنها را در برابر دستکاری و پروپاگاندا بسیار آسیبپذیرتر کرده است.
هوش مصنوعی به بازیگران حوزه اطلاعات نادرست اجازه میدهد تا با حداقل هزینه و تلاش، در مقایسه با ابزارهای تبلیغاتی سنتی مانند رادیو، تلویزیون یا رسانههای چاپی، به دسترسی و تأثیر بسیار بیشتری دست یابند. با محو شدن مرز بین حقیقت و دروغ، اعتماد عمومی به نهادهای دموکراتیک از بین میرود و فضای بیشتری برای ریشه دواندن روایتهای افراطی ایجاد میکند. به این معنا، هوش مصنوعی به ابزاری تأثیرگذار هم برای دولتهای خودکامه و هم برای گروههای غیردولتی تبدیل شده است که به دنبال تضعیف تابآوری دموکراتیک و پیشبرد برنامههای خود هستند.
استفاده از هوش مصنوعی برای اهداف سیاسی
هر چه اطلاعات نادرست بیشتر منتشر شود، آشناتر و باورپذیرتر میشود. خود اصطلاح «اطلاعات نادرست» (disinformation) که برای اولین بار در دوران استالین استفاده شد، از بستر جنگ نامتقارن سرچشمه میگیرد.
اتحاد جماهیر شوروی به دنبال جبران نقطه ضعف اقتصادی و نظامی خود در برابر ایالات متحده از طریق قدرت خود در عملیاتهای مخفی و دستکاری افکار عمومی در غرب بود. روسیه بعداً این روشها را اصلاح کرد و کمپینهای پخش اطلاعات نادرست را در طول جنگ ۲۰۰۸ در گرجستان و به شکلی بسیار گستردهتر، در طول جنگ اوکراین به کار گرفت. در سال ۲۰۱۳، یوگنی پریگوژین، بنیانگذار فقید گروه نظامی واگنر، «آژانس تحقیقات اینترنتی» را در سنت پترزبورگ تأسیس کرد که شروع به پر کردن شبکههای اجتماعی با رباتها، ترولها، وبسایتهای جعلی و کارشناسان ظاهری کرد تا روایتهای روسیه در مورد تهدید ناتو و اوکراین علیه این کشور را گسترش دهد.
بر اساس گزارشی به کنگره آمریکا در ماه ژانویه، دولت روسیه نگران «تضعیف اعتماد به نهادهای دموکراتیک ایالات متحده، تشدید اختلافات اجتماعی-سیاسی در ایالات متحده و تضعیف حمایت غرب از اوکراین» است. تمام سرویسهای اطلاعات خارجی روسیه دارای واحدهای سایبری هستند که انواع عملیات جاسوسی، خرابکاری و اطلاعات نادرست را انجام میدهند. این جنگ در سایه بخشی از جنگ هیبریدی روسیه است که هدف آن حمله به غرب از طریق تاکتیکهای متعارف و غیرمتعارف بدون خطر جنگ تمامعیار است.
هوش مصنوعی اجازه میدهد تا برخی از عملیاتهای نفوذ از یک کامپیوتر اداری استاندارد اجرا شوند و نیاز به حضور فیزیکی را کاهش میدهد. گزارشهای اطلاعاتی آلمان حاکی از آن است که مسکو از کانالهای پیامرسان مانند تلگرام برای استخدام افراد جوان و طرفدار روسیه در آلمان برای آتشسوزی و خرابکاری استفاده کرده و هر دو سرویس (اطلاعاتی) روسیه و چین به سیستمهای دیجیتال زیرساختهای حیاتی تا حدی نفوذ کردهاند که به طور بالقوه میتواند به آنها اجازه دهد شبکههای برق یا راهآهن را مختل کنند. برخلاف سرویسهای غربی، بازیگران تحت حمایت رژیمهای خودکامه اغلب با محدودیتهای قانونی یا پارلمانی کمتری عمل میکنند که میتواند نظارت و تنظیم فعالیتهای آنها را دشوارتر کند.
در رقابت جهانی برای هوش مصنوعی، ایالات متحده و چین بسیار جلوتر از سایر رقبا هستند، با این حال هر دو با فشارهای اقتصادی و امنیتی فزایندهای روبرو هستند. چین منابع عظیمی را در تحقیق، توسعه و زیرساختها برای گسترش صنایع مبتنی بر هوش مصنوعی خود سرمایهگذاری کرده است. ایالات متحده نیز به نوبه خود، محدودیتهای تجاری، کنترل صادرات و تعرفههایی را برای محافظت از برتری فناورانه خود و محدود کردن دسترسی چین به قطعات حیاتی هوش مصنوعی وضع کرده است. چندین شرکت چینی با استناد به نگرانیهای امنیت ملی در لیست سیاه آمریکا قرار گرفتهاند.
هوش مصنوعی و جنگ هیبریدی
الکساندر کارپ، بنیانگذار شرکت پلنتیر (Palantir)، از سیلیکون ولی به دلیل تمرکز بر نرمافزارهای مصرفی به جای ابزارهایی برای بازدارندگی معتبر انتقاد کرده و واشنگتن را به دلیل عدم درک پیامدهای امنیتی تغییرات سریع فناوری مقصر میداند. در سال ۲۰۲۴، وزارت دفاع ۱.۸ میلیارد دلار برای تحقیق و توسعه هوش مصنوعی اختصاص داد که تنها ۰.۲ درصد از بودجه ۸۸۶ میلیارد دلاری آن بود.
روشن شده است که ناتو، علیرغم تجهیز به پیشرفتهترین سلاحها، در موقعیتی نیست که بتواند به اندازه کافی حمله پهپادها را دفع کند. در شب ۱۰ سپتامبر، برای اولین بار دستهای متشکل از ۱۹ پهپاد کامیکازه روسی بر فراز خاک لهستان، یکی از کشورهای عضو ناتو، پرواز کردند. جنگندههای لهستانی و هلندی، با کمک یک هواپیمای شناسایی ایتالیایی و دو سامانه ضدهوایی پاتریوت آلمانی، تنها موفق به سرنگونی چهار فروند از آنها شدند. تلاشی عظیم و پرهزینه برای مقابله با تهدیدی که اوکراینیها از زمان آغاز تهاجم روسیه در فوریه ۲۰۲۲ روزانه با آن روبرو بودهاند.
در یک شب در ۷ سپتامبر، روسیه بیش از ۸۰۰ پهپاد رزمی و ۱۳ موشک مستقر کرد که نیروهای مسلح اوکراین توانستند ۷۴۷ پهپاد و چهار موشک کروز را رهگیری کنند. این بزرگترین حمله پهپادی تاریخ تا به امروز بود. در جنگ روسیه و اوکراین، بین ۷۰ تا ۸۰ درصد از تلفات رزمی روزانه هر دو طرف ناشی از پهپادهاست. ناتو از آغاز عصر جدید در جنگافزارها غافل مانده است.
در مارس ۲۰۲۰، برای اولین بار در جنگ داخلی لیبی از یک ربات قاتل استفاده شد؛ یک پهپاد خودمختار که میتواند به طور مستقل به سمت اهداف خود حرکت کرده و آنها را از بین ببرد. این پهپاد یک «کارگو-۲» (Kargu-2) ساخت ترکیه بود که هم به صورت دستی و هم خودکار قابل استفاده است. کشورهای آفریقایی اکنون از چنین پهپادهایی علیه شورشیان استفاده میکنند. ترکیه و هند، و همچنین سایر کشورهای «اکثریت جهانی» (Global Majority)، با محدود کردن یا تنظیم سیستمهای تسلیحاتی خودمختار کشنده (LAWS) مخالف هستند.
اسرائیل برای کشتار هدفمند، از پایگاه داده «لاوندر» (Lavender) استفاده میکند که با کمک سیستمهای هدفگیری هوش مصنوعی، دهها هزار نفر از اعضای حماس و دیگر گروههای فلسطینی را در میان تقریباً ۲.۳ میلیون نفر از ساکنان نوار غزه شناسایی کرده است. چنین سیستمهایی بر اساس دادههایی آموزش میبینند که شامل جنسیت، سن، ظاهر، الگوهای حرکتی و فعالیتها در شبکههای اجتماعی و موارد دیگر است.
در حالی که اتحادیه اروپا به شدت در مورد حاکمیت دادهها و کنترل فردی بر اطلاعات شخصی بحث میکند، واقعیت این است که دادههای مردم در حال حاضر به طور گسترده جمعآوری، تحلیل و مبادله میشود. گذشته از این واقعیت که هر اپلیکیشن ردپاهای دیجیتالی به جا میگذارد و بسیاری از کاربران با میل خود اطلاعات حساس را به اشتراک میگذارند، دادههای حسگرهای گوشیهای هوشمند مانند شتابسنجها، ژیروسکوپها و مغناطیسسنجها میتوانند برای شناسایی افراد با دقت بالا تحلیل شوند.
--------------------------------------------
* برگزدان گزارش از محمد حسن گودرزی
پربیننده ترین پست همین یک ساعت اخیر
منبع خبر "
عصر ایران" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد.
(ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.