متفکران از هزاران سال پیش تاکنون نگران این بودند که فناوری ممکن است حافظه و فهم را تضعیف کند. نخستین آن فناوریها خود «نوشتن» بود. سقراط در «فایدروس» هشدار میدهد که کلام مکتوب ممکن است حافظه را تضعیف کند و متن ممکن است صرفا افراد را شبیه کسانی نشان دهد که دانش دارند، نه اینکه واقعا آن را داشته باشند.
یک پژوهش اوایل سال جاری نشان داد تقریبا تمام دانشجوها برای کارهایشان به ابزارهای هوش مصنوعی مانند چتجیپیتی متکی بودند و ۸۸ درصد دانشجویانی که [در بریتانیا] از آنها نظرسنجی شد، برای تکالیفشان از هوش مصنوعی استفاده کرده بودند. این در حالی است که این رقم سال گذشته ۵۳ درصد بود.
به گزارش سیتنا، این پژوهش نشان میدهد که هوش مصنوعی موجب میشود کمتر و با کیفیت پایینتری فکر کنید. اگرچه این پژوهش هنوز محدود است. پژوهشگران اوایل سال جاری، شرکتکنندگان را به سه گروه تقسیم کردند و از آنها خواستند یک مقاله بنویسند. به برخی کمک یک مدل زبانی بزرگ مانند چتجیپیتی داده شد، به برخی اجازه دسترسی به گوگل داده شد و برخی هم هیچ کمکی نداشتند. آنها سپس این سه گروه را به شیوههای مختلف بررسی کردند.
مغز آنها در زمان نوشتن به شکل متفاوتی کار میکرد. هرچه افراد کمک بیشتری دریافت میکردند، بخشهای کمتری از مغز آنها فعال بود. آنهایی که کمک هوش مصنوعی دریافت کرده بودند، کمتر در نقلقول کردن از مقالاتشان خوب بودند. پژوهشگران هشدار دادند که این کار، در مراحل ابتدایی و نسبتا محدود است و به طور صریح هشدار دادند که نباید از آن برای این نتیجهگیری استفاده شود که افراد احمقتر شدهاند، اما این امر دستکم «ضرورت بررسی کاهش احتمالی در مهارتهای یادگیری» در اثر استفاده از مدلهای زبانی بزرگ در آموزش را مطرح میکند.
متفکران از هزاران سال پیش تاکنون نگران این بودند که فناوری ممکن است حافظه و فهم را تضعیف کند. نخستین آن فناوریها خود «نوشتن» بود. سقراط در «فایدروس» هشدار میدهد که کلام مکتوب ممکن است حافظه را تضعیف کند و متن ممکن است صرفا افراد را شبیه کسانی نشان دهد که دانش دارند، نه اینکه واقعا آن را داشته باشند.
رایانهها این نگرانیها را فقط مبرمتر [از قبل] کردهاند. پژوهشگران در یک مقاله در سال ۲۰۱۱، «اثر گوگل» را شناسایی کردند؛ حالتی که در آن، به نظر میرسید در دسترس بودن اطلاعات در سرانگشتان ما باعث میشود آن اطلاعات درون سرمان کمتر در دسترس باشند.
پژوهشگران حتی ۱۵ سال قبل دریافته بودند افرادی که از آنها خواسته میشد چیزهایی را به یاد بیاورند، تمایل داشتند به رایانه فکر کنند [تا از آن کمک بگیرند.] داشتن این انتظار که این اطلاعات بهآسانی در دسترس است، سبب میشد افراد آن اطلاعات را با احتمال کمتری واقعا به خاطر بسپارند. محققان نوشتند: «اینترنت به یک شکل اصلی حافظه بیرونی یا تراکنشی تبدیل شده است، جایی که اطلاعات به صورت جمعی بیرون از خود ما ذخیره میشود.»
یک نگرانی بزرگ درباره تاثیر هوش مصنوعی بر آموزش این است که این حس را نمیدهد که هوش مصنوعی ما را احمق میکند و استفاده از آن حس یادگیری میدهد.
آرون فرنچ، پژوهشگر سامانههای اطلاعاتی، در مقالهای که در تابستان منتشر شد، اشاره کرد که صحبت کردن با هوش مصنوعی «میتواند هوش ادراکشده فرد را به طرز مصنوعی افزایش دهد، در حالی که در واقع تقلا و کوشش شناختی را کم میکند». او به اثر دانینگــکروگر اشاره کرد؛ اثری که بیان میکند میزان کمی از دانش یک امر خطرناک است، چرا که شما با [همان مقدار] اطلاعات، خود را توانمند احساس میکنید، در حالی هنوز به اندازه کافی از آن [موضوع، اطلاعات] ندارید که آگاه باشید چه چیزهایی را نمیدانید و هشدار داد که استفاده نادرست از هوش مصنوعی میتواند افراد را در آن نقطه خطرناک اعتمادبهنفس نگه دارد؛ نقطهای که پژوهشگران آن را «قله کوه حماقت» نامیدهاند.
اواخر ماه گذشته، آناستازیا برگ که در دانشگاه کالیفرنیا، ارواین، فلسفه تدریس میکند، یادآور شد که بسیاری از افراد بین «استفادههای غیرمجاز از هوش مصنوعی»، مانند اینکه هوش مصنوعی یک مقاله کامل را بنویسد و «کارکردهای کمکی بیضرر» مانند کمک به طرح کلی آن مقاله، یک شکاف میبینند. او در عین حال اشاره کرد که تصمیمگیری درباره اینکه درباره چه چیزی بنویسید، یک مهارت ضروری است. او نوشت: «هیچ جنبهای از فهم شناختی، فرمالیته [و سطحی] نیست.»
با این حال هوش مصنوعی در حال ورود به دانشگاهها است، خواه ادارهکنندگان دانشگاهها این مسئله را بپسندند، خواه نه. اوایل امسال، آکسفورد در جریان چیزی که آن را یک «طرح آزمایشی یکساله موفق» خواند، به یکی از چند دانشگاهی تبدیل شد که با اوپنایآی، سازنده چتجیپیتی، توافقی رسمی انجام داد. دانشجویان به یک نسخه ویژه از چتجیپیتی دسترسی پیدا میکنند که از دادهها محافظت میکند و شامل تدابیر ایمنی دیگر است [از سوی دیگر]، اوپنایآی [با این قرارداد میتواند] بگوید که هوش مصنوعی در حال تبدیل شدن به بخش مهمتری از فرایند یادگیری در دانشگاهها است.
بخش زیادی از بحث درباره پذیرش هوش مصنوعی که آکسفورد انجام داد، به طور صریح در زمینه این بود که دانشجویان آن از قبل این کار را انجام داده بودند و انتخاب میان این نیست که مقالهها با چتجیپیتی نوشته شوند یا نه، بلکه درباره این است که آیا دانشگاه به طور رسمی آن را به رسمیت میشناسد یا نه.
آنه ترفیثن، معاون رئیس دانشگاه آکسفورد در حوزه دیجیتال، هنگام رونمایی از این پروژه گفت: «ما میدانیم که تعداد قابلتوجهی از کارکنان و دانشجویان همین حالا دارند از ابزارهای هوش مصنوعی مولد استفاده میکنند. استفاده از هوش مصنوعی، راه خود را پیدا کرده و بسیاری از دانشگاهیان پیشنهاد میکنند که بهتر است به دانشجویان آموزش داده شود تا از آن بهخوبی و درست استفاده کنند، به جای اینکه آموزش را بدون استفاده از هوش مصنوعی در اختیارشان بگذاریم.»
فریا جانستون، معاون رئیس دانشگاه آکسفورد در امور آموزش، گفت: «دسترسی سراسری در دانشگاه به چتجیپیتی اِدو (ChatGPT Edu) از توسعه مهارتهای دانشگاهی سختگیرانه و سواد دیجیتال پشتیبانی خواهد کرد، بهطوریکه ما فارغالتحصیلانمان را آماده میکنیم در جهانی با قابلیت هوش مصنوعی پیشرفت کنند و پیشگام و الگو باشند. هوش مصنوعی مولد همچنین دارد به ما کمک میکند در کنار مدل شناختهشده آموزش چهرهبهچهره و آموزش رفع اشکالمان (توتوریال) که بر تفکر انتقادی و تحلیل زمینهای تاکید میکند، برای تعامل با دانشجویان راههای جدیدی را بررسی کنیم.»
قوانین خود آکسفورد هوش مصنوعی مولد را در پژوهش ممنوع نمیکنند، اما ایجاب میکنند که استفادهکنندگان «در نهایت، مسئول محتوای تولیدشده با هوش مصنوعی مولد که در پژوهش استفاده میشود، بمانند». این قوانین به آنها میگوید که باید «از محدودیت ابزارها مانند توهمها یا سوگیریهای اجتماعی که ممکن است در دادههای آموزشی تعبیه شده باشند و میتوانند بازنمایی نادرست دستههای اجتماعی، گروههای محافظتشده یا [ادعاهای] نادقیق تاریخی را تداوم ببخشند، آگاهی داشته باشند» و همچنین از آنها میخواهد که از خطرهای دیگر آگاه و درباره استفاده خود از این ابزارها شفاف باشند.
بسیاری از دانشگاهها قوانین مشابهی دارند. اوایل امسال، «نیویورک مگزین» در مطلبی با عنوان «همه دارند مسیر دانشگاه را از راه تقلب طی میکنند» درباره دانشجویی گزارش داد که با خوشحالی، قوانین دانشگاه کلمبیا در خصوص استفاده نکردن از هوش مصنوعی بدون اجازه را نقض کرده بود. [این مقاله] ادعا میکرد که فناوری [هوش مصنوعی]، «کل پروژه [کار] آکادمیک را از بین برده [و هرچه رشته بوده، پنبه کرده] است». این مطلب یادآور شده بود که دانشگاه کلمبیا نیز نوعی همکاری با اوپنایآی دارد.
در چنین جهانی، ممکن است دانشجویان مجبور باشند به شکل متفاوتی آموزش بگیرند و این امر ممکن است این را در بر بگیرد که یاد بگیرند چگونه با هوش مصنوعی ارتباط برقرار کنند. کیتلین رگر، دانشیار در علوم انسانی دیجیتال در کالج دانشگاهی لندن، هشدار داده است که رشد هوش مصنوعی باید با نوع خاصی از آموزش درباره این همراه باشد که «برونسپاری تفکر ما یا بهطور مشخصتر، توسعه تفکر ما، تا چه اندازه قابلقبول است». او در جریان یک مراسم اوایل سال جاری پرسید مسئولیت ما در این رابطه که چه چیزهایی را در نظام آموزشی و شیوههای فرزندپروری تغییر دهیم یا تکمیل کنیم تا بتوانیم از نسل جوان حمایت کنیم، چیست؟
این کار ممکن است به معنی [راهاندازی] پروژهای مشابه با کلاسهای تربیت بدنی در مدارس باشد. او گفت: «با ظهور خودرو و مشاغل کمتحرکتر، در زمینه پژوهش پیرامون سلامت جسمانی رونقی پدید آمد و چون ما تحرک نداشتیم، چون فناوری آن کار را برای ما انجام میداد، لازم بود که شروع کنیم به اینکه بهطور مصنوعی حرکت کنیم.»
«ما شاهد ظهور فرهنگ باشگاه و کلاس تربیتبدنی بودیم. چون افراد حرکت نمیکردند، چون فناوری به جای ما حرکت میکرد. من فکر میکنم یک قیاس واقعا کمککننده که امیدوارم برای والدین [...] مفید باشد، یک جور باشگاه برای عصر هوش مصنوعی است. یک باشگاه اجتماعی،عاطفی. یک کلاس تربیتبدنی اجتماعی،عاطفی. در شرایطی که هوش مصنوعی بهطرز فزایندهای، کارها را برای ما انجام میدهد و کودکان مجبور نیستند ذهنهایشان را به حرکت درآورند، اکنون چه چیزی باید اضافه کنیم؟»
پربیننده ترین پست همین یک ساعت اخیر
منبع خبر "
عصر ایران" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد.
(ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.