هم‌بنیان‌گذار گوگل: هوش مصنوعی را تهدید کنید تا پاسخ‌های بهتری بگیرید

دیجیاتو شنبه 03 خرداد 1404 - 20:00
مدل‌های هوش مصنوعی ظاهراً در فرایند آموزش خود فهمیده‌اند «تهدید» به این معنی است که کار باید جدی‌تر گرفته شود. The post هم‌بنیان‌گذار گوگل: هوش مصنوعی را تهدید کنید تا پاسخ‌های بهتری بگیرید appeared first on دیجیاتو.

راه‌های مختلفی برای افزایش عملکرد هوش مصنوعی مولد و دریافت خروجی موردنظر وجود دارد. «سرگی برین»، هم‌بنیان‌گذار گوگل، در مصاحبه جدیدی راهکار عجیبی برای این مسئله مطرح کرد. او می‌گوید کاربران می‌توانند با تهدید هوش مصنوعی عملکرد آن را بهبود بدهند.

سرگی برین در مصاحبه‌ای با All-In Podcast گفت: «نه‌فقط مدل‌های [هوش مصنوعی] ما، بلکه تمام مدل‌ها، اگر آنها را تهدید کنید، عملکرد بهتری خواهند داشت.» او سپس گفت مثلاً آنها را به «خشونت فیزیکی» تهدید کنید. برین توضیح داد چون مردم احساس خوبی به این کار نخواهند داشت، تاکنون چنین توصیه‌ای عمومی مطرح نشده است. درکل به‌ نظر می‌رسد مدل‌های هوش مصنوعی طی فرایند آموزش فهمیده‌اند «تهدید» به این معنی است که کار باید جدی‌تر گرفته شود؛ به همین دلیل وقتی تهدید می‌شوند، خروجی بهتری ارائه می‌دهند.

افزایش عملکرد هوش مصنوعی با تهدید

تهدید هوش مصنوعی

در این پادکست یکی از مهمانان برنامه به‌شوخی گفت اگر به هوش مصنوعی گستاخی کنید، کارهای شما را بهتر انجام می‌دهد. سرگی برین نیز در تأکید حرف او گفت با تهدید مدل‌های هوش مصنوعی، عملکرد آنها بهتر می‌شود.

البته مشخص نیست واقعاً چت‌بات‌ها با تهدید عملکرد بهتری داشته باشند و ممکن است حتی اخطاری از سازنده آن هوش مصنوعی دریافت کنید. شرکت آنتروپیک به‌تازگی مدل‌های هوش مصنوعی Claude 4 خود را منتشر کرد؛ سپس یکی از کارمندان این شرکت در Bluesky گفت مدل جدید Opus که بالاترین عملکرد را دارد، می‌تواند با نهادهای نظارتی تماس بگیرد و اکانت شما را مسدود کند تا مانع کارهای «غیراخلاقی» بشود.

قابلیت جدید شرکت آنتروپیک فعلاً در مرحله آزمایشی است ولی احتمالاً در آینده عملی شود؛ به‌این ترتیب ممکن است هوش مصنوعی تهدیدهای شما برای انجام کارهای مختلف را گزارش بدهد. درکل کارشناسان توصیه می‌کنند کاربران با پرامپت‌نویسی اصولی و دقیق خروجی موردنظرشان را از هوش مصنوعی دریافت کنند. اگرچه راه‌های مختلفی برای دورزدن محدودیت‌های هوش مصنوعی از طریق پرامپت وجود دارد، چارچوب امنیتی مدل‌های هوش مصنوعی پیشرفته را نمی‌توان به‌راحتی از بین برد.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.