مدل هوش Llama 2 Long متا معرفی شد؛ بهترین عملکرد در پاسخ‌های به سوالات طولانی


ظاهراً در دنیای رقابتی چت‌بات‌های هوش مصنوعی به‌تازگی مدل هوش Llama 2 Long متا توانسته در پاسخ به سؤالات طولانی از رقبایی چون  GPT-3.5 Turbo پیشی بگیرد.

چند روز قبل متا از ابزار هوش مصنوعی جدید خود جهت ویرایش تصویر در اینستاگرام و نسل جدید عینک هوشمند خود رونمایی کرد. بااین‌حال پژوهشگران این شرکت نیز در سکوت کامل مقاله‌ای منتشر کردند که به معرفی مدل هوش Llama 2 Long متا می‌پرداخت. به‌نظر این مدل در حوزه پاسخگویی به سؤالات طولانی از مهارت مناسبی برخوردار بوده و بهتر از بسیاری از رقبای خود عمل می‌کند.

به ادعای متا، مدل Llama 2 Long توانایی پاسخگویی به سؤالاتی با حداکثر 200 هزار نویسه معادل یک کتاب 40 صفحه‌ای، باکیفیت مناسبی را دارد. طی این مقاله، نمونه‌هایی از پاسخ‌های این مدل در زمینه موضوعاتی همچون تاریخ، علم، ادبیات و ورزش قابل مشاهده است.

بیشتر بخوانید: ابزار هوش مصنوعی استیکرساز متا برای واتساپ، اینستاگرام و تردز معرفی شد

قابلیت‌های مدل هوش Llama 2 Long متا

مدل هوش مصنوعی Llama 2 Long درواقع نسخه دیگری از مدل Llama 2 بوده که در فصل تابستان رونمایی شده بود. این مدل توانایی دریافت داده از منابع مختلف را داشته و می‌تواند کارهای گوناگونی همچون کدنویسی، ریاضیات، فهم زبان، استدلال و محاوره را صورت دهد.

با این وجود، این مدل از همه بیش‌تر روی متون طولانی آموزش یافته و به‌شکلی پیکربندی شده که امکان مدیریت دنباله‌های طولانی‌تری از اطلاعات را داشته باشد. مدل هوش Llama 2 Long متا با این قابلیت توانایی ارائه عملکرد بهتری از مدل‌هایی همچون GPT-3.5 Turbo و Claude 2 که محدودیت‌هایی در زمینه دریافت ورودی دارند، خواهد داشت. بنابر اعتقاد دانشمندان Llama 2 Long قدمی بزرگ به سوی ساخت مدل‌های هوش مصنوعی جامع و همه‌منظوره بوده که می‌توانند پاسخگوی نیازهای مختلف کاربر باشند.

پژوهشگران متا جهت ساخت این مدل هوش مصنوعی از دو نسخه از Llama 2 با 7 تا 70 میلیارد پارامتر بهره‌برداری کرده‌اند. سپس 400 میلیارد توکن داده دیگر که از متونی طولانی‌تر از مجموعه داده‌های نسخه اصلی Llama 2 بود، به این ترکیب افزوده شده است.

همچنین محققان اندکی معماری Llama 2 را تغییر داده‌اند و شیوه کدگذاری موقعیت هر توکن در دنباله را دستکاری کرده‌اند. آن‌ها از تکنیکی موسوم به RoPE استفاده بردند که هر توکن را به نقطه‌ای در یک گراف سه‌بعدی که وضعیتش را نسبت به سایر توکن‌ها نشان می‌دهد، متصل خواهد کرد. با این فرایند، مدل هوش مصنوعی پاسخ‌های دقیق‌تر و مفیدتری را ارائه کرده و در عین حال حافظه کمتری مصرف خواهد کرد.

بیشتر بخوانید: 

دیدگاه شما در خصوص مدل هوش Llama 2 Long متا چیست؟ نظرات خود را در بخش کامنت‌ها با ما به اشتراک بگذارید و اخبار تکنولوژی را با تکراتو دنبال کنید.

.

منبع: دیجیاتو

دیدگاهتان را بنویسید