هوش مصنوعی ریاضی نمی‌داند!

همشهری آنلاین چهارشنبه 08 بهمن 1404 - 14:52
یک مطالعه علمی که چند ماهی از انتشار آن می‌گذرد اما تاکنون نادیده گرفته شده بود، مدعی است که به صورت ریاضیاتی ثابت کرده مدل‌های زبانی بزرگ (LLMs) «قادر به انجام وظایف محاسباتی و ایجنتی فراتر از یک سطح پیچیدگی خاص نیستند»؛ و نکته حیاتی اینجاست که این سطح از پیچیدگی، بسیار پایین است.

به گزارش همشهری آنلاین، مقاله‌ای که هنوز تحت داوری همتا (Peer Review) قرار نگرفته، توسط ویشال سیکا (CTO سابق غول نرم‌افزاری آلمان، SAP) و فرزندش وارین سیکا نوشته شده است. ویشال سیکا در حوزه هوش مصنوعی صاحب‌نظر است؛ او شاگرد «جان مک‌کارتی» (دانشمند برنده جایزه تورینگ و بنیان‌گذار رشته هوش مصنوعی که خودِ واژه هوش مصنوعی را ابداع کرد) بوده است.

ویشال سیکا به صراحت اعلام کرد: «هیچ راهی وجود ندارد که این مدل‌ها قابل‌اعتماد باشند.» او همچنین تاکید کرد که باید وعده‌های اغراق‌آمیز طرفداران هوش مصنوعی درباره سپردن مدیریت نیروگاه‌های هسته‌ای و کارهای حساس به ایجنت‌ها را فراموش کنیم.

هوش مصنوعی ریاضی نمی‌داند!

محدودیت‌های ذاتی در معماری هوش مصنوعی

برخلاف شعارهایی که مدیران عامل شرکت‌های فناوری در سخنرانی‌های خود می‌دهند، تحقیقات نشان می‌دهد که محدودیت‌های بنیادی در معماری فعلی هوش مصنوعی نهفته است. حتی محققان خودِ این صنعت نیز با این موضوع موافقند.

در ماه سپتامبر، دانشمندان OpenAI اعتراف کردند که «توهمات هوش مصنوعی» (Hallucinations) همچنان یک مشکل فراگیر در سیستم‌های پیشرفته است و دقت مدل‌ها «هرگز» به ۱۰۰ درصد نخواهد رسید.

برخی شرکت‌ها که سال گذشته با هدف تعدیل نیرو به سراغ ایجنت‌های هوش مصنوعی رفتند، به سرعت دریافتند که این ایجنت‌ها اصلاً در حدی نیستند که جایگزین انسان شوند؛ زیرا به شدت دچار توهم شده و به سختی می‌توانند وظایف محوله را به پایان برسانند.

آیا راهکاری وجود دارد؟

رهبران صنعت هوش مصنوعی اصرار دارند که می‌توان با ایجاد «حفاظ‌های خارجی» (Guardrails) خارج از مدل‌های اصلی، توهمات را فیلتر کرد. محققان OpenAI در همان مقاله‌ای که به عدم رسیدن به دقت ۱۰۰ درصدی اعتراف کردند، ایده «اجتناب‌ناپذیر بودن توهمات» را رد کردند و مدعی شدند که مدل‌ها می‌توانند در صورت عدم اطمینان، از پاسخ دادن خودداری کنند؛ هرچند در واقعیت، چت‌بات‌های محبوب فعلی برای حفظ جذابیت، به ندرت چنین رفتاری نشان می‌دهند.

سیکا با وجود اینکه معتقد است مدل‌های زبانی بزرگ دارای یک سقف کاراییِ غیرقابل عبور هستند، با این ایده موافق است که می‌توان توهمات را مهار کرد. او می‌گوید: «یک مدل زبانی بزرگِ "خالص" دارای این محدودیت ذاتی است؛ اما همزمان این درست است که شما می‌توانید در اطراف این مدل‌ها، اجزای دیگری بسازید که بر آن محدودیت‌ها غلبه کنند.»

منبع: futurism

منبع خبر "همشهری آنلاین" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.