هوش مصنوعی در حال تغییر مغز ماست؛ بی‌صدا و بی‌آنکه بفهمیم!

عصر ایران سه شنبه 11 آذر 1404 - 00:06
متفکران از هزاران سال پیش تاکنون نگران این بودند که فناوری ممکن است حافظه و فهم را تضعیف کند. نخستین آن فناوری‌ها خود «نوشتن» بود. سقراط در «فایدروس» هشدار می‌دهد که کلام مکتوب ممکن است حافظه را تضعیف کند و متن ممکن است صرفا افراد را شبیه کسانی نشان دهد که دانش دارند، نه اینکه واقعا آن را داشته باشند.
یک پژوهش اوایل سال جاری نشان داد تقریبا تمام دانشجوها برای کارهایشان به ابزارهای هوش مصنوعی مانند چت‌جی‌پی‌تی متکی بودند و ۸۸ درصد دانشجویانی که [در بریتانیا] از آن‌ها نظرسنجی شد، برای تکالیفشان از هوش مصنوعی استفاده کرده بودند. این در حالی است که این رقم سال گذشته ۵۳ درصد بود.
 
به گزارش سیتنا، این پژوهش نشان می‌دهد که هوش مصنوعی موجب می‌شود کمتر و با کیفیت پایین‌تری فکر کنید. اگرچه این پژوهش هنوز محدود است. پژوهشگران اوایل سال جاری، شرکت‌کنندگان را به سه گروه تقسیم کردند و از آن‌ها خواستند یک مقاله بنویسند. به برخی کمک یک مدل زبانی بزرگ مانند چت‌جی‌پی‌تی داده شد، به برخی اجازه دسترسی به گوگل داده شد و برخی هم هیچ کمکی نداشتند. آن‌ها سپس این سه گروه را به شیوه‌های مختلف بررسی کردند.
 
مغز آن‌ها در زمان نوشتن به شکل متفاوتی کار می‌کرد. هرچه افراد کمک بیشتری دریافت می‌کردند، بخش‌های کمتری از مغز آن‌ها فعال بود. آن‌هایی که کمک هوش مصنوعی دریافت کرده بودند، کمتر در نقل‌قول کردن از مقالاتشان خوب بودند. پژوهشگران هشدار دادند که این کار، در مراحل ابتدایی و نسبتا محدود است و به طور صریح هشدار دادند که نباید از آن برای این نتیجه‌گیری استفاده شود که افراد احمق‌تر شده‌اند، اما این امر دست‌کم «ضرورت بررسی کاهش احتمالی در مهارت‌های یادگیری» در اثر استفاده از مدل‌های زبانی بزرگ در آموزش را مطرح می‌کند.
 
متفکران از هزاران سال پیش تاکنون نگران این بودند که فناوری ممکن است حافظه و فهم را تضعیف کند. نخستین آن فناوری‌ها خود «نوشتن» بود. سقراط در «فایدروس» هشدار می‌دهد که کلام مکتوب ممکن است حافظه را تضعیف کند و متن ممکن است صرفا افراد را شبیه کسانی نشان دهد که دانش دارند، نه اینکه واقعا آن را داشته باشند.
 
رایانه‌ها این نگرانی‌ها را فقط مبرم‌تر [از قبل] کرده‌اند. پژوهشگران در یک مقاله در سال ۲۰۱۱، «اثر گوگل» را شناسایی کردند؛ حالتی که در آن، به نظر می‌رسید در دسترس بودن اطلاعات در سرانگشتان ما باعث می‌شود آن اطلاعات درون سرمان کمتر در دسترس باشند.
 
پژوهشگران حتی ۱۵ سال قبل دریافته بودند افرادی که از آن‌ها خواسته می‌شد چیزهایی را به یاد بیاورند، تمایل داشتند به رایانه فکر کنند [تا از آن کمک بگیرند.] داشتن این انتظار که این اطلاعات به‌آسانی در دسترس است، سبب می‌شد افراد آن اطلاعات را با احتمال کمتری واقعا به خاطر بسپارند. محققان نوشتند: «اینترنت به یک شکل اصلی حافظه بیرونی یا تراکنشی تبدیل شده است، جایی که اطلاعات به صورت جمعی بیرون از خود ما ذخیره می‌شود.» 
 
یک نگرانی بزرگ درباره تاثیر هوش مصنوعی بر آموزش این است که این حس را نمی‌دهد که هوش مصنوعی ما را احمق می‌کند و استفاده از آن حس یادگیری می‌دهد. 
 
آرون فرنچ، پژوهشگر سامانه‌های اطلاعاتی، در مقاله‌ای که در تابستان منتشر شد، اشاره کرد که صحبت کردن با هوش مصنوعی «می‌تواند هوش ادراک‌شده فرد را به طرز مصنوعی افزایش دهد، در حالی که در واقع تقلا و کوشش شناختی را کم می‌کند». او به اثر دانینگ‌ــ‌‌کروگر اشاره کرد؛ اثری که بیان می‌کند میزان کمی از دانش یک امر خطرناک است، چرا که شما با [همان مقدار] اطلاعات، خود را توانمند احساس می‌کنید، در حالی هنوز به اندازه کافی از آن [موضوع، اطلاعات] ندارید که آگاه باشید چه چیزهایی را نمی‌دانید و هشدار داد که استفاده نادرست از هوش مصنوعی می‌تواند افراد را در آن نقطه خطرناک اعتمادبه‌نفس نگه دارد؛ نقطه‌ای که پژوهشگران آن را «قله کوه حماقت» نامیده‌اند.
 
اواخر ماه گذشته، آناستازیا برگ که در دانشگاه کالیفرنیا، ارواین، فلسفه تدریس می‌کند، یادآور شد که بسیاری از افراد بین «استفاده‌های غیرمجاز از هوش مصنوعی»، مانند اینکه هوش مصنوعی یک مقاله کامل را بنویسد و «کارکردهای کمکی بی‌ضرر» مانند کمک به طرح کلی آن مقاله، یک شکاف می‌بینند. او در عین حال اشاره کرد که تصمیم‌گیری درباره اینکه درباره چه چیزی بنویسید، یک مهارت ضروری است. او نوشت: «هیچ جنبه‌ای از فهم شناختی، فرمالیته [و سطحی] نیست.»
 
با این حال هوش مصنوعی در حال ورود به دانشگاه‌ها است، خواه اداره‌کنندگان دانشگاه‌ها این مسئله را بپسندند، خواه نه. اوایل امسال، آکسفورد در جریان چیزی که آن را یک «طرح آزمایشی یک‌ساله موفق» خواند، به یکی از چند دانشگاهی تبدیل شد که با اوپن‌ای‌آی، سازنده چت‌جی‌پی‌تی، توافقی رسمی انجام داد. دانشجویان به یک نسخه ویژه از چت‌جی‌پی‌تی دسترسی پیدا می‌کنند که از داده‌ها محافظت می‌کند و شامل تدابیر ایمنی دیگر است [از سوی دیگر]، اوپن‌ای‌آی [با این قرارداد می‌تواند] بگوید که هوش مصنوعی در حال تبدیل شدن به بخش مهم‌تری از فرایند یادگیری در دانشگاه‌ها است.
 
بخش زیادی از بحث درباره پذیرش هوش مصنوعی که آکسفورد انجام داد، به طور صریح در زمینه این بود که دانشجویان آن از قبل این کار را انجام داده بودند و انتخاب میان این نیست که مقاله‌ها با چت‌جی‌پی‌تی نوشته شوند یا نه، بلکه درباره این است که آیا دانشگاه به طور رسمی آن را به رسمیت می‌شناسد یا نه.
 
آنه ترفیثن، معاون رئیس دانشگاه آکسفورد در حوزه دیجیتال، هنگام رونمایی از این پروژه گفت: «ما می‌دانیم که تعداد قابل‌توجهی از کارکنان و دانشجویان همین حالا دارند از ابزارهای هوش مصنوعی مولد استفاده می‌کنند. استفاده از هوش مصنوعی، راه خود را پیدا کرده و بسیاری از دانشگاهیان پیشنهاد می‌کنند که بهتر است به دانشجویان آموزش داده شود تا از آن به‌خوبی و درست استفاده کنند، به جای اینکه آموزش را بدون استفاده از هوش مصنوعی در اختیارشان بگذاریم.»
 
فریا جانستون، معاون رئیس دانشگاه آکسفورد در امور آموزش، گفت: «دسترسی سراسری در دانشگاه به چت‌جی‌پی‌تی اِدو (ChatGPT Edu) از توسعه مهارت‌های دانشگاهی سختگیرانه و سواد دیجیتال پشتیبانی خواهد کرد، به‌طوری‌که ما فارغ‌التحصیلانمان را آماده می‌کنیم در جهانی با قابلیت هوش مصنوعی پیشرفت کنند و پیشگام و الگو باشند. هوش مصنوعی مولد همچنین دارد به ما کمک می‌کند در کنار مدل شناخته‌شده آموزش چهره‌به‌چهره و آموزش رفع اشکالمان (توتوریال) که بر تفکر انتقادی و تحلیل زمینه‌ای تاکید می‌کند، برای تعامل با دانشجویان راه‌های جدیدی را بررسی کنیم.»
 
قوانین خود آکسفورد هوش مصنوعی مولد را در پژوهش ممنوع نمی‌کنند، اما ایجاب می‌کنند که استفاده‌کنندگان «در نهایت، مسئول محتوای تولیدشده با هوش مصنوعی مولد که در پژوهش استفاده می‌شود، بمانند». این قوانین به آن‌ها می‌گوید که باید «از محدودیت‌ ابزارها مانند توهم‌ها یا سوگیری‌های اجتماعی که ممکن است در داده‌های آموزشی تعبیه شده باشند و می‌توانند بازنمایی نادرست دسته‌های اجتماعی، گروه‌های محافظت‌شده یا [ادعاهای] نادقیق تاریخی را تداوم ببخشند، آگاهی داشته باشند» و همچنین از آن‌ها می‌خواهد که از خطرهای دیگر آگاه و درباره استفاده خود از این ابزارها شفاف باشند.
 
بسیاری از دانشگاه‌ها قوانین مشابهی دارند. اوایل امسال، «نیویورک مگزین» در مطلبی با عنوان «همه دارند مسیر دانشگاه را از راه تقلب طی می‌کنند» درباره دانشجویی گزارش داد که با خوشحالی، قوانین دانشگاه کلمبیا در خصوص استفاده نکردن از هوش مصنوعی بدون اجازه را نقض کرده بود. [این مقاله] ادعا می‌کرد که فناوری [هوش مصنوعی]، «کل پروژه [کار] آکادمیک را از بین برده [و هرچه رشته بوده، پنبه کرده] است». این مطلب یادآور شده بود که دانشگاه کلمبیا نیز نوعی همکاری با اوپن‌ای‌آی دارد.
 
در چنین جهانی، ممکن است دانشجویان مجبور باشند به شکل متفاوتی آموزش بگیرند و این امر ممکن است این را در بر بگیرد که یاد بگیرند چگونه با هوش مصنوعی ارتباط برقرار کنند. کیتلین رگر، دانشیار در علوم انسانی دیجیتال در کالج دانشگاهی لندن، هشدار داده است که رشد هوش مصنوعی باید با نوع خاصی از آموزش درباره این همراه باشد که «برون‌سپاری تفکر ما یا به‌طور مشخص‌تر، توسعه تفکر ما، تا چه اندازه قابل‌قبول است». او در جریان یک مراسم اوایل سال جاری پرسید مسئولیت ما در این رابطه که چه چیزهایی را در نظام آموزشی و شیوه‌های فرزندپروری تغییر دهیم یا تکمیل کنیم تا بتوانیم از نسل جوان حمایت کنیم، چیست؟
 
این کار ممکن است به معنی [راه‌اندازی] پروژه‌ای مشابه با کلاس‌های تربیت بدنی در مدارس باشد. او گفت: «با ظهور خودرو و مشاغل کم‌تحرک‌تر، در زمینه پژوهش پیرامون سلامت جسمانی رونقی پدید آمد و چون ما تحرک نداشتیم، چون فناوری آن کار را برای ما انجام می‌داد، لازم بود که شروع کنیم به اینکه به‌طور مصنوعی حرکت کنیم.»
 
«ما شاهد ظهور فرهنگ باشگاه و کلاس تربیت‌بدنی بودیم. چون افراد حرکت نمی‌کردند، چون فناوری به جای ما حرکت می‌کرد. من فکر می‌کنم یک قیاس واقعا کمک‌کننده که امیدوارم برای والدین [...] مفید باشد، یک جور باشگاه برای عصر هوش مصنوعی است. یک باشگاه اجتماعی،عاطفی. یک کلاس تربیت‌بدنی اجتماعی،عاطفی. در شرایطی که هوش مصنوعی به‌طرز فزاینده‌ای، کارها را برای ما انجام می‌دهد و کودکان مجبور نیستند ذهن‌هایشان را به حرکت درآورند، اکنون چه چیزی باید اضافه کنیم؟»

منبع خبر "عصر ایران" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.