فیسبوک از هوش مصنوعی قدرتمندی برای تقلید متون دست‌نویس پرده برداشت

دیجیاتویکشنبه 23 خرداد 1400 - 23:16
در سال‌های اخیر متوجه شده‌ایم که هوش مصنوعی به‌خوبی می‌تواند چهره و صدای ما را شبیه‌سازی کند. حالا فیسبوک مدل هوش مصنوعی جدیدی را توسعه داده که قادر است از روی تصویر فقط یک کلمه به تقلید، ویرایش و جانشین‌سازی ... The post فیسبوک از هوش مصنوعی قدرتمندی برای تقلید متون دست‌نویس پرده برداشت appeared first on دیجیاتو.

در سال‌های اخیر متوجه شده‌ایم که هوش مصنوعی به‌خوبی می‌تواند چهره و صدای ما را شبیه‌سازی کند. حالا فیسبوک مدل هوش مصنوعی جدیدی را توسعه داده که قادر است از روی تصویر فقط یک کلمه به تقلید، ویرایش و جانشین‌سازی متون دیجیتالی با متون دست‌نویس بپردازد.

محققان فیسبوک به‌تازگی از پروژه‌ای به نام TextStyleBrush رونمایی کرده‌اند. آن‌ها می‌گویند با وجود این که اکثر سیستم‌های هوش مصنوعی می‌توانند متون را با اهداف خاص و تعریف‌شده کپی و جایگزین کنند، TextStyleBrush قادر به بازتولید متون در قالب دستخط افراد است. انجام چنین کاری برای یک مدل هوش مصنوعی بسیار سخت‌تر است چون مؤلفه‌های بیشتری را دخیل می‌کند.

فیسبوک در بیانیه خبری خود می‌گوید: «این مدل می‌تواند سبک‌های نوشتاری بی‌شماری را نه فقط از نظر نویسه‌نگاری و خوش‌نویسی، بلکه از نظر دگرگونی‌های مختلفی از جمله چرخش، انحنا و بدریختی‌های بین قلم و کاغذ متوجه شود.»

هوش مصنوعی فیسبوک

مدل TextStyleBrush اولین مدل هوش مصنوعی خودنظارتی است که می‌تواند از طریق عکس فقط یک واژه، متن‌های دیجیتالی را به دست‌نویس تبدیل کند. این غول دنیای فناوری می‌گوید در آزمایش‌های خود دقت بالایی را در این مدل مشاهده کرده است.

هوش مصنوعی TextStyleBrush مشابه ابزارهای سبک قلم در پردازشگرهای متن کار می‌کند، با این تفاوت که فیسبوک روش‌های قدیمی را کنار گذاشته است. این شرکت می‌گوید: «ما روش جامع‌نگرانه‌تری را در متد آموزش خود به کار گرفتیم و محتوا را از جنبه‌های ظاهری کلمه جدا می‌کنیم. سپس برداشت ظاهری از وضعیت نوشته بدون آموزش مجدد نمونه‌های جدید سبک منبع اعمال می‌شود.»

البته مدل هوش مصنوعی فیسبوک محدودیت‌های خاص خودش را دارد و آن‌طور که این شرکت اذعان داشته، TextStyleBrush هنوز در زمان کار با متون نوشته‌ شده روی سطوح فلزی یا نویسه‌های رنگی دچار مشکل می‌شود. از سوی دیگر، فیسبوک پذیرفته که خطرات این فناوری را هم باید در نظر گرفت. محققان این شرکت می‌گویند اگر متخصصان بتوانند زودتر از خرابکاران چنین مدل‌هایی را به‌درستی پیاده‌سازی کنند، راحت‌تر می‌توانند متون جعلی را شناسایی کرده و سیستم‌های قوی‌تری برای مقابله با آن‌ها بسازند.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.