مدیرعامل استارتاپ هوش مصنوعی آنتروپیک به اظهارات اخیر «جنسن هوانگ»، مدیرعامل انویدیا که گفته بود آنتروپیک از طریق سیاستگذاری قصد کنترل بازار هوش مصنوعی را دارد، واکنش تندی نشان داده و او را به دروغگویی متهم کرده است.
به گزارش بیزینس اینسایدر، مدیرعامل انویدیا در مصاحبهای در ماه ژوئن گفت که با «تقریباً همه» گفتههای اخیر «داریو آمودی»، مدیرعامل آنتروپیک، مخالف است. اکنون آمودی نیز به این اظهارات جنسن هوانگ پاسخ داده است. هوانگ معتقد است که آنتروپیک قصد کنترل بازار هوش مصنوعی را دارد، اما مدیرعامل این استارتاپ این ادعا را رد کرده است.
شکلگیری اختلافی جدی بین آنتروپیک و انویدیا
در پادکست Big Technology که بهتازگی میزبان مدیرعامل آنتروپیک بود، مجری ابتدا به اظهارات پیشین جنسن هوانگ اشاره کرد که گفته بود آمودی فکر میکند تنها کسی است که میتواند این فناوری را بهطور ایمن بسازد و بنابراین میخواهد کل صنعت را کنترل کند.
آمودی نیز در پاسخ گفت: «من هرگز چنین چیزی نگفتهام. این شنیعترین دروغی است که تاکنون شنیدهام.» او حتی در پاسخ به مجری که گفت ممکن است صحبتهای هوانگ را اشتباه نقلقول کرده باشد، گفت این نقلقول کاملاً درست است و مدیرعامل انویدیا چنین سخنانی را مطرح کرده است.
صحبت دقیق هوانگ این بود که آمودی «اعتقاد دارد هوش مصنوعی آنقدر ترسناک است که تنها خودشان باید آن را توسعه دهند.» همچنین در کنفرانس VivaTech در ماه ژوئن، هوانگ از دیدگاه آمودی درباره اینکه هوش مصنوعی میتواند به یک فاجعه شغلی گسترده در مشاغل اداری دامن بزند، انتقاد کرد.
آمودی در پاسخ گفت نمیداند کسی چطور میتواند چنین چیزی را از گفتههای او برداشت کند. مدیرعامل آنتروپیک افزود: «هرگز چیزی شبیه این نگفتهام که شرکت ما باید تنها شرکتی باشد که این فناوری را میسازد. این شیوه از تغییر دادن حرفهای من شگفتانگیز و تحریفی با سوءنیت است. من بارها گفتهام و فکر میکنم اقدامات آنتروپیک نیز این را نشان داده است که ما به دنبال چیزی هستیم که آن را مسابقهای برای رسیدن به بهترین جایگاه مینامیم.»
در واکنش به این سخنان جدید، سخنگوی انویدیا به بیزینس اینسایدر گفت: «لابیگری برای تسلط نظارتی علیه نرمافزارهای متنباز تنها نوآوری را خفه میکند، ایمنی و اطمینان هوش مصنوعی را کاهش میدهد و باعث میشود این فناوری کمتر در دسترس قرار بگیرد. این مسابقه برای رسیدن به بهترین جایگاه نیست و راهی برای پیروزی آمریکا هم محسوب نمیشود.»
در ماه مه، شرکت آنتروپیک از دولت ایالات متحده خواست تا آزمایشهایی را برای ارزیابی مدلهای هوش مصنوعی داخلی و خارجی از نظر پیامدهای احتمالی علیه امنیت ملی مدنظر قرار دهد.