🤖متا با لاما 3.1 گام مهمی در زمینه هوش مصنوعی متنباز برمیدارد
▫️متا با معرفی لاما 3.1، تعهد خود را به هوش مصنوعی متنباز به طور قابل توجهی تقویت کرد. این انتشار، که مارک زاکربرگ، مدیرعامل متا، آن را «اولین مدل هوش مصنوعی متنباز در سطح مرزهای دانش» مینامد، با هدف به چالش کشیدن سلطه سیستمهای هوش مصنوعی انحصاری و دموکراتیزه کردن دسترسی به فناوری پیشرفته هوش مصنوعی صورت گرفته است.
▫️انتشار لاما 3.1 شامل سه مدل است: 405 میلیارد پارامتر، 70 میلیارد پارامتر و 8 میلیارد پارامتر. زاکربرگ ادعا میکند که مدل 405 میلیارد پارامتر با پیشرفتهترین مدلهای انحصاری رقابت میکند و در عین حال مقرونبهصرفهتر است.
✅گیرنده های کلیدی
🔹تعهد دسترسی را باز کنید: متا به تعهد خود به هوش مصنوعی منبع باز ادامه می دهد و هدف آن دموکراتیک کردن دسترسی و نوآوری است.
🔹قابلیت های پیشرفته: Llama 3.1 دارای گسترش طول زمینه به 128K است، از هشت زبان پشتیبانی می کند و Llama# 3.1 405B، اولین مدل AI منبع باز سطح مرزی را معرفی می کند.
🔹انعطاف پذیری و کنترل بی نظیر: Llama 3.1 405B قابلیتهای پیشرفتهای را ارائه میکند که با مدلهای منبع بسته پیشرو قابل مقایسه است و جریانهای کاری جدیدی مانند تولید دادههای مصنوعی و تقطیر مدل را امکانپذیر میسازد.
🔹پشتیبانی جامع اکوسیستم: Llama 25 با بیش از 3.1 شریک، از جمله شرکتهای فناوری بزرگ مانند AWS، NVIDIA، و Google Cloud برای استفاده فوری در پلتفرمهای مختلف آماده است.
پیشبینی زاکربرگ این است که «از سال آینده، انتظار میرود مدلهای آینده لاما به پیشرفتهترین مدلهای این صنعت تبدیل شوند».
زاکربرگ بین تکامل هوش مصنوعی و تغییر تاریخی از سیستمهای بسته یونیکس به لینوکس متنباز، مشابهتهایی قائل میشود. او استدلال میکند که هوش مصنوعی متنباز مسیر مشابهی را طی خواهد کرد و در نهایت به دلیل تطبیقپذیری، مقرونبهصرفهبودن و پشتیبانی گسترده از اکوسیستم، به استاندارد صنعت تبدیل میشود.