استارتاپ ژاپنی Sakana AI از فناوری جدیدی به نام «مهندس هوش مصنوعی CUDA» رونمایی کرده است که با بهرهگیری از مدلهای زبانی بزرگ و تکنیکهای بهینهسازی تکاملی، کرنلهای CUDA را بهصورت خودکار کشف و بهینهسازی میکند. این فناوری میتواند سرعت پردازش را تا ۱۰ تا ۱۰۰ برابر نسبت به PyTorch و تا ۵ برابر نسبت به کرنلهای CUDA موجود افزایش دهد.
CUDA چیست و چالشهای بهینهسازی آن؟
CUDA یک رابط برنامهنویسی سطح پایین است که امکان دسترسی مستقیم به GPUهای NVIDIA را فراهم کرده و برای پردازش موازی طراحی شده است. با این حال، بهینهسازی دستی کرنلهای CUDA نیازمند تخصص بالایی در معماری GPU است و فرآیندی پیچیده و زمانبر محسوب میشود.
فناوری جدید Sakana AI این چالش را با خودکارسازی فرآیند توسعه و بهینهسازی کرنلهای CUDA از طریق استفاده از هوش مصنوعی حل کرده است.
نحوه عملکرد مهندس هوش مصنوعی CUDA
این چارچوب، کد استاندارد PyTorch را از طریق یک خط لوله چندمرحلهای به کرنلهای CUDA بهینهشده تبدیل میکند. فرآیند شامل مراحل زیر است:
- ترجمه عملیات PyTorch به کرنلهای CUDA: این مرحله معمولاً بدون نیاز به تنظیمات دستی، زمان اجرا را کاهش میدهد.
- بهینهسازی تکاملی: با استفاده از روشهایی مانند عملیات ترکیب (Crossover Operations) و آرشیو نوآوری (Innovation Archive)، عملکرد کرنلها بهینهسازی میشود.
- ادغام عملیات مختلف کرنلها: این سیستم قادر است عملیات مختلف را بهصورت کارآمد ترکیب کرده و به عملکردی بهتر از بسیاری از روشهای شتابیافته موجود دست یابد.
نتایج و دستاوردها
طبق گزارش Sakana AI، مهندس هوش مصنوعی CUDA توانسته:
- بیش از ۲۳۰ مورد از ۲۵۰ عملیات PyTorch را با موفقیت ترجمه کند.
- تاکنون ۳۰,۰۰۰ کرنل CUDA تولید کرده که ۱۷,۰۰۰ مورد آنها از نظر صحت عملکرد تأیید شدهاند.
- تقریباً ۵۰٪ از کرنلهای تولید شده عملکردی بهتر از پیادهسازیهای بومی PyTorch دارند.
بازخوردها و چشماندازها
«جیم فن»، مدیر ارشد تحقیقات در NVIDIA، درباره این فناوری اظهار داشت:
«این یکی از جالبترین ابزارهای خودکار کدنویسی است که اخیراً دیدهام. استفاده از هوش مصنوعی برای نوشتن کرنلهای CUDA بهتر و افزایش سرعت پردازش در هوش مصنوعی، آینده منابع محاسباتی را متحول میکند.»
او معتقد است که این فناوری میتواند بهرهوری منابع محاسباتی را به شکل قابلتوجهی افزایش دهد.
دسترسی به دادهها و ابزارهای تعاملی
Sakana AI برای شفافیت و دسترسی عمومی، مجموعه دادههای مرتبط با این پروژه را تحت مجوز CC-By-4.0 در پلتفرم Hugging Face منتشر کرده است. این مجموعه شامل:
- پیادهسازیهای مرجع
- دادههای پروفایلینگ
- مقایسههای عملکردی در برابر نسخههای بومی PyTorch
همچنین، این شرکت یک وبسایت تعاملی راهاندازی کرده که به کاربران اجازه میدهد:
- مجموعه دادهها را بررسی کنند.
- رتبهبندی کرنلهای بهینهشده را مشاهده کنند.
- به کد کرنلها، شاخصهای عملکردی و آزمایشهای مرتبط با بهینهسازی دسترسی داشته باشند.
جمعبندی
فناوری مهندس هوش مصنوعی CUDA شرکت Sakana AI، با خودکارسازی فرآیند توسعه و بهینهسازی کرنلهای CUDA، گامی بزرگ در افزایش سرعت پردازش GPU برداشته است. این رویکرد نهتنها عملکرد محاسباتی را به شکل چشمگیری بهبود میبخشد، بلکه به توسعهدهندگان و پژوهشگران امکان میدهد به شکلی سادهتر و کارآمدتر از قدرت CUDA بهرهمند شوند.
این فناوری میتواند در آینده به عنوان یکی از ابزارهای کلیدی در بهینهسازی منابع محاسباتی و تسریع پیشرفتهای هوش مصنوعی به کار گرفته شود.