منو سایت

تلاش Anthropic برای هوش مصنوعی بهتر و قابل درک تر، 580 میلیون دلار جمع آوری می کند

 تاریخ انتشار :
/
  اخبار استارتاپ
تلاش Anthropic برای هوش مصنوعی بهتر و قابل درک تر، 580 میلیون دلار جمع آوری می کند

کمتر از یک سال پیش، Anthropic توسط داریو آمودی، معاون سابق تحقیقات OpenAI، تأسیس شد و قصد داشت تحقیقاتی را در جهت منافع عمومی انجام دهد تا هوش مصنوعی را قابل اعتمادتر و قابل توضیح تر کند. سرمایه 124 میلیون دلاری او در آن زمان تعجب آور بود، اما هیچ چیز نمی توانست ما را آماده کند تا شرکت بتواند 580 میلیون دلار کمتر از یک سال بعد جمع آوری کند.

آمودی در بیانیه‌ای گفت: «با این جمع‌آوری کمک مالی، ویژگی‌های مقیاس‌پذیری قابل پیش‌بینی سیستم‌های یادگیری ماشین را بررسی می‌کنیم، در حالی که از نزدیک راه‌های غیرقابل پیش‌بینی ایجاد فرصت‌ها و مسائل ایمنی در مقیاس بزرگ را بررسی می‌کنیم».

خواهرش دانیلا، که با او شرکت عام المنفعه را تأسیس کرد، گفت که پس از ساختن شرکت، «ما در حال تمرکز بر این هستیم که اطمینان حاصل کنیم که Anthropic دارای فرهنگ و حکومت است تا به تحقیق مسئولانه و توسعه سیستم‌های هوش مصنوعی ایمن ادامه دهد. ”

دوباره این کلمه وجود دارد – مقیاس. از آنجایی که این مقوله مشکل است، Anthropic برای بررسی این موضوع ایجاد شد: چگونه می توان مدل های هوش مصنوعی را که به طور فزاینده ای در هر صنعتی استفاده می شود، درک کرد، زیرا آنها از توانایی ما برای توضیح منطق و نتایج خود فراتر می روند.

این شرکت قبلاً چندین مقاله منتشر کرده است، مانند طراحی مجدد رفتار مدل‌های زبان، تا بفهمد چرا و چگونه نتایجی را که تولید می‌کنند ایجاد می‌کنند. چیزی مانند GPT-3، احتمالاً معروف‌ترین مدل زبان موجود، غیرقابل انکار است، اما چیزی نگران‌کننده در مورد این واقعیت وجود دارد که عملیات داخلی آن اساساً حتی برای سازندگان آن یک رمز و راز است.

همانطور که در اطلاعیه بودجه جدید توضیح داده شده است:

هدف این مطالعه توسعه مولفه‌های فنی مورد نیاز برای ساخت مدل‌های در مقیاس بزرگ است که دارای پادمان‌های ضمنی بهتری هستند و به مداخلات پس از آموزش کمتری نیاز دارند، و همچنین توسعه ابزارهای مورد نیاز برای بررسی بیشتر در این مدل‌ها برای اطمینان از اقدامات احتیاطی. در واقع کار می کند

اگر نمی‌دانید یک سیستم هوش مصنوعی چگونه کار می‌کند، فقط زمانی می‌توانید واکنش نشان دهید که کار اشتباهی انجام می‌دهد – مثلاً تعصب در تشخیص چهره یا تمایل به نقاشی یا توصیف مردان وقتی از پزشکان و مدیران اجرایی سؤال می‌شود. این رفتار در مدل تعبیه شده است و راه حل آن فیلتر کردن خروجی های آن به جای جلوگیری از داشتن این “نمایش” های نادرست در وهله اول است.

این به نوعی مانند یک تغییر اساسی در نحوه ساخت و درک هوش مصنوعی است و به این ترتیب به مغزهای بزرگ و رایانه های بزرگ نیاز دارد – که هیچ کدام بسیار ارزان نیستند. بدون شک، 124 میلیون دلار شروع خوبی بود، اما ظاهراً نتایج اولیه به اندازه کافی امیدوارکننده بود که سم بنکمن-فرید را به رهبری این دور جدید بزرگ، که توسط کارولین الیسون، جیم مک کلاو، نیشاد سینگ، ایان تالین و مرکز ریسک های نوظهور ملحق شدند، هدایت کرد. پژوهش.

جالب است که هیچ یک از سرمایه گذاران معمولی فناوری عمیق را در این گروه نبینید – اما البته، آنتروپیک به دنبال سود نیست، که چیزی شبیه از بین بردن یک معامله سرمایه گذاری خطرپذیر است.

در اینجا می توانید با آخرین تحقیقات Anthropic همراه باشید.