مایکروسافت تأیید کرده که وجود یک باگ باعث شده تا هوش مصنوعی کوپایلت (Copilot) این شرکت برای هفتهها و بدون اجازه مشتریان، ایمیلهای محرمانه آنها را خلاصهسازی کند.
این نقص فنی که اولین بار توسط وبسایت Bleeping Computer گزارش شده، از ماه ژانویه به بخش چت کوپایلت اجازه میداده تا محتوای ایمیلها را بخواند و طرح کلی آنها را ارائه کند. این اتفاق حتی در مواردی که مشتریان از سیاستهای «جلوگیری از نشت دادهها» (DLP) برای ممانعت از ورود اطلاعات حساس خود به مدل زبانی بزرگ مایکروسافت استفاده کرده بودند هم رخ داده است.
سرویس چت کوپایلت به کاربران پولی Microsoft 365 اجازه میدهد از قابلیت چت مبتنی بر هوش مصنوعی در نرمافزارهای آفیس از جمله ورد، اکسل و پاورپوینت استفاده کنند.

مایکروسافت اعلام کرده این باگ با کد CW1226324 قابل رهگیری بوده و پیامهای پیشنویس و ارسالشدهای که «برچسب محرمانه» (Confidential Label) داشتهاند را «بهطور اشتباه توسط چت کوپایلت مایکروسافت ۳۶۵ پردازش کرده است.»
این غول فناوری اعلام کرده که از اوایل ماه فوریه روند انتشار اصلاحیهای برای این باگ را آغاز کرده است. بااینحال، سخنگوی مایکروسافت به درخواستها برای اظهار نظر، از جمله سوالی درباره تعداد مشتریان آسیبدیده از این باگ، پاسخی نداد.
پیش از این در هفته جاری، دپارتمان فناوری اطلاعات پارلمان اروپا به قانونگذاران اعلام کرد که قابلیتهای هوش مصنوعی داخلی را در دستگاههای کاری آنها مسدود کرده است؛ چرا که این نگرانی وجود دارد که ابزارهای هوش مصنوعی مکاتبات احتمالا محرمانه را در فضای ابری آپلود کنند.