استارتاپ جدید Deep Cogito که در زمینه تحقیقات هوش مصنوعی فعالیت میکند، بهطور رسمی مدلهای زبانی قدرتمند خود را معرفی کرد. این مدلها عملکردی مشابه مدلهای رقیب دارند.
Deep Cogito که در سنفرانسیسکو مستقر است، مدلهای «Cogito v1» را معرفی کرده که بر پایه نسخه 3.2 از LLaMA (محصول متا) توسعه یافتهاند و از قابلیت «استدلال ترکیبی» بهره میبرند؛ قابلیتی که هم پاسخدهی سریع و مستقیم را ممکن میکند هم نوعی بازاندیشی مشابه مدلهای سری «o» شرکت OpenAI و DeepSeek R1 را.
هدف نهایی Deep Cogito توسعه هوش فراانسانی است؛ مدلی از هوش مصنوعی که بتواند در تمام حوزهها از انسان پیشی بگیرد اما این شرکت تأکید میکند تمام مدلهایش متنباز خواهند بود.
به گفته «دریشان آرورا» (Drishan Arora)، مدیرعامل و همبنیانگذار این استارتاپ که سابقه فعالیت بهعنوان مهندس ارشد در گوگل و مشارکت در توسعه موتور جستجوی این شرکت را دارد، مدلهای آنها در ابعاد خود قویترین مدلهای متنبازند و حتی از مدلهای لاما، DeepSeek و Qwen نیز پیشی میگیرند.
نسخه اولیه مدلهای Cogito در ۵ اندازه 3، 8، 14، 32 و 70 میلیارد پارامتر منتشر شدهاند و هماکنون در پلتفرمهای Hugging Face ،Ollama و APIهای Fireworks و Together AI در دسترس قرار دارند. این مدلها تحت لایسنس LLaMA منتشر شدهاند که اجازه استفاده تجاری تا سقف 700 میلیون کاربر ماهانه را فراهم میکند؛ درصورتیکه استفاده از مدل از این سقف عبور کند، گرفتن مجوز پولی از متا الزامی خواهد بود.
Deep Cogito از رویکردی جدید با نام «تقطیر و تقویت تکراری» (Iterated Distillation and Amplification یا IDA) برای آموزش مدلهای خود استفاده کرده است. برخلاف روش رایج RLHF (تقویت با بازخورد انسانی)، در روش IDA به مدل اجازه داده میشود با اختصاص محاسبات بیشتر، راهحلهای بهینهتری تولید کند و این روند تفکر بهینه را در پارامترهایش یاد بگیرد.
عملکرد مدلهای هوش مصنوعی Cogito در بنچمارک

مدلهای Cogito عملکرد چشمگیری در آزمونهای مختلف از خود نشان دادهاند:
- Cogito 3B با امتیاز 65.4 درصد در MMLU، مدل LLaMA 3.2 3B را با اختلاف 6.7 درصد شکست داده است. در آزمون Hellaswag نیز 18.8 درصد عملکرد بهتری داشته است.
- Cogito 8B با کسب امتیاز 80.5 درصد در MMLU، مدل LLaMA 3.1 8B را با اختلاف 12.8 درصد پشت سر گذاشته است.
- در حالت Reasoning یا استدلال، نسخه 8B موفق شده به امتیاز 92 درصد در آزمون ARC و 83.1 درصد در MMLU دست یابد و از DeepSeek R1 Distill 8B پیشی بگیرد.
درمجموع، عملکرد مدلهای Cogito در حالت Reasoning بالاترین نتایج را داشته است، هرچند در برخی موارد، بهویژه در آزمون ریاضی MATH، مدلهای دیگر مثل DeepSeek R1 همچنان برتری نسبی دارند.
به گفته این شرکت، نسخههایی بسیار بزرگتر از این مدلها نیز در راه است و مدلهایی با ابعاد 109، 400 و حتی 671 میلیارد پارامتر طی ماههای آینده عرضه خواهند شد.