در جریان کنفرانس Google I/O 2025، گوگل از مدل هوش مصنوعی Gemma 3n رونمایی کرد. این مدل برای اجرای روان روی موبایل، لپتاپ و تبلتهایی با حافظه رم کم طراحی شده است. به گفته گوگل، Gemma 3n میتواند صدا، متن، تصاویر و ویدیوها را درک کند.
براساس گزارش Neowin، بزرگترین نکته قابلتوجه در Gemma 3n این است که از نوآوری جدید دیپمایند به نام Per-Layer Embeddings یا PLE استفاده میکند؛ این فناوری رم موردنیاز برای اجرای مدل را کاهش میدهد. Gemma 3n دو نسخه 5 و 8 میلیارد پارامتری دارد اما میزان اشغال رم آن با مدلهای 2 یا 4 میلیاردی قابلمقایسه است. گوگل ادعا میکند مدلهای 5B و 8B میتوانند بهترتیب با رمهای فقط 2 و 3 گیگابایتی اجرا شوند.
علاوهبر اشغال حافظه کمتر، تکنیک PLE و دیگر نوآوریهای دیپمایند به Gemma 3n امکان میدهد در مقایسه با مدل Gemma 3 4B، در موبایل 1.5 برابر سریعتر و با کیفیت بسیار بهتر پاسخ دهد. Gemma 3n همچنین از قابلیت mix’n’match استفاده میکند که به آن اجازه میدهد زیرمدلهایی ایجاد کند که کارهای شما را بهینهتر انجام بدهد.
مزیت دیگر جما 3n این است که محلی اجرا میشود؛ یعنی دستگاه شما آن را پردازش میکند و هیچ دادهای به سرورهای گوگل ارسال نمیشود. علاوهبراین، میتوان بدون اتصال به اینترنت از آن استفاده کرد.
همچنین گوگل میگوید این مدل در ورودیهای چندوجهی بسیار بهتر از دیگر مدلهای همرده عمل میکند و میتواند صدا، متن و تصاویر را بفهمد. طبق گفته گوگل، درک ویدیو در این مدل به میزان قابلتوجهی بهبود یافته است. همچنین گوگل وعده داده Gemma 3n در زبانهای غیرانگلیسی بهتر عمل کند. این مدل بهویژه در زبانهای ژاپنی، آلمانی، کرهای، اسپانیایی و فرانسوی عملکرد خوبی دارد. درکل این مدل در بنچمارکهای چندزبانه مانند WMT24++ امتیاز 50.1 درصد گرفته است.
میتوانید از طریق Google AI Studio از Gemma 3n مستقیم در مرورگر خود استفاده کنید. توسعهدهندگانی که میخواهند Gemma 3n را محلی به دستگاه خود انتقال دهند، میتوانند این کار را از طریق Google AI Edge انجام دهند.