سازندگان چت بات: هنوز نمیدانیم چطور باید در فرآیندی دموکراتیک خطرات هوش مصنوعی را کنترل کرد!

خبرگزاری برنا چهارشنبه 03 خرداد 1402 - 23:51
مدیرعامل اوپن.ای.آی و دو نفر از موسسان این شرکت در نامه‌ای درخواست کردند تا نهادی بین‌المللی برای کنترل خطرات حیاتی هوش مصنوعی ایجاد شود.

گروه علمی و فناوری خبرگزاری برنا؛ مدیران و توسعه دهندگان فناوری چت‌بات ChatGPT خود اکنون بیش از هرکس دیگری نگران شوری آشی شده‌اند که اخیراً پخته‌اند،  گسترش روزافزون نگرانی‌ها دربارۀ ابعاد خطرناک هوش مصنوعی و اثرات ویرانگی که می‌تواند بر زندگی بشر بگذارد، سبب شده است تا آن‌ها خواستار تشکیل سازمانی معادل «آژانس انرژی اتمی» شوند تا مقرراتی بین‌المللی برای کنترل هوش مصنوعی وضع کند.

«گرگ براکمن» و «ایلیا سوتسکور» و «سم آلتمن»، مدیرعامل اوپن.ای.آی به عنوان مدیران ارشد توسعه دهندۀ این فناوری، خواهان تشکیل یک نهاد تنظیم‌گر بین‌المللی برای مدیریت مخاطرات هوش مصنوعی، وضع مقرراتی جهت کار بر روی نحوه بازرسی سیستم‌ها، ممیزی، آزمایش انطباق با استاندارد‌های ایمنی، و اعمال محدودیت‌هایی در درجات استقرار و سطوح امنیتی شدند.

تاثیر ۱۰ ساله هوش مصنوعی بر زندگی بشر

براساس گزارش گاردین انگلیس افراد مذکور معتقدند که آن روز دور نیست که در کمتر از ۱۰ سال آینده، سیستم‌های هوش مصنوعی در بیشتر حوزه‌ها از سطح مهارت‌های متخصص فراتر بروند و کارکردی برابر با بزرگترین شرکت‌های امروزی پیدا کنند! از نظر جنبه‌های مثبت و منفی احتمالی، ابر هوش قوی‌تر از سایر فناوری‌هایی است که بشر در گذشته مجبور به مبارزه با آن‌ها بوده است. 

این نامه می‎گوید که ما می‌توانیم آینده‌ای به طور چشمگیری مرفه‌تر داشته باشیم اما برای رسیدن به آن باید ریسک را مدیریت کنیم. 

نویسندگان نامۀ مذکور خواهان ایجاد هماهنگی بین شرکت‌های بزرگی هستند که در زمینۀ هوش مصنوعی تحقیقات پیشرفته انجام می‌دهند تا توسعه این فناوری علاوه بر تسهیل زندگی مردم، در حالتی ایمن اتفاق بیافتد.

آن‌ها معتقدند که ایجاد هماهنگی مزبور از طریق یک پروژه تحت مدیریت دولت‌ها یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت‌های هوش مصنوعی انجام‌پذیر است.

خطرات توسعه بی‌ضابطه هوش مصنوعی چیست؟

پژوهشگران بیش از یک‌دهه است که درباره خطرات احتمالی ابر هوش هشدار می‌دهند اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات جدی‌تر شده است.

مرکز ایمنی هوش مصنوعی (CAIS) مستقر در آمریکا که در زمینه کاهش خطرات اجتماعی ناشی از هوش مصنوعی فعالیت می‌کند، خطرات بسیار مهم توسعۀ بی‌ضابطۀ هوش مصنوعی را در هشت گروه دسته‌بندی کرده است.

در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیب‌های مخرب دیگری را توصیف می‌کند. جهانی که در آن سیستم‌های هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست می‌آورند، می‌تواند به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشین‌ها از سوی بشر» منجر شود که به عنوان «ناتوانی» توصیف می‌شود. 

همچنین گروه کوچکی از افراد که سیستم‌های قدرتمند را کنترل می‌کنند، می‌توانند هوش مصنوعی را به یک نیروی متمرکز تبدیل در جهت پیشبرد اهداف خود تبدیل کنند.

مدیران اوپن.ای.آی اعتقاد دارند که مردم جهان باید به طور دموکراتیک از محدودیت‌ها و پیش فرض‌های سیستم‌های هوش مصنوعی آگاه شوند و دربارۀ نحوۀ مواجهه با آن تصمیم بگیرند اما اذعان دارند که «ما هنوز نمی‌دانیم چگونه چنین مکانیزمی را طراحی کنیم.» ولی آن‌ها در عین حال معتقدند که توسعه مداوم سیستم‌های قدرتمند ارزش ریسک را دارد. 

انتهای پیام/

منبع خبر "خبرگزاری برنا" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.