منو سایت

Deep Science: AI قطع می کند، جریان می یابد و سبز می شود

 تاریخ انتشار :
/
  اخبار استارتاپ
Log4Shell برای هک سرورهای VMWare استفاده می شود

تحقیقات در زمینه یادگیری ماشینی و هوش مصنوعی، که اکنون یک فناوری کلیدی در تقریباً هر صنعت و شرکتی است، برای هر کسی بسیار حجیم است. هدف این ستون جمع‌آوری برخی از جدیدترین اکتشافات و اسناد – به ویژه در هوش مصنوعی، اما نه محدود به آن – و توضیح دلیل اهمیت آنهاست.

این هفته، برنامه های کاربردی هوش مصنوعی به دلیل توانایی آن در مرتب سازی مقادیر زیادی از داده ها یا پیش بینی های معقول بر اساس شواهد محدود، در چندین جایگاه غیرمنتظره کشف شد.

ما دیده‌ایم که مدل‌های یادگیری ماشینی مجموعه‌های بزرگی از داده‌ها را در بیوتکنولوژی و امور مالی جذب می‌کنند، اما محققان ETH زوریخ و LMU مونیخ تکنیک‌های مشابهی را برای داده‌های تولید شده توسط پروژه‌های کمک‌های توسعه بین‌المللی، مانند کمک‌های بلایا و مسکن به کار می‌برند. این تیم مدل خود را بر روی میلیون‌ها پروژه (به ارزش 2.8 تریلیون دلار) در طول 20 سال گذشته آموزش داده است، مجموعه‌ای از داده‌ها که برای تجزیه و تحلیل دستی با جزئیات بسیار پیچیده است.

می‌توانید این فرآیند را تلاشی برای خواندن یک کتابخانه کامل و دسته‌بندی چنین کتاب‌هایی در قفسه‌هایی با موضوعات خاص در نظر بگیرید. Malte Tocke، نویسنده این مطالعه گفت: الگوریتم ما 200 بعد مختلف را در نظر می گیرد تا مشخص کند این 3.2 میلیون پروژه چقدر شبیه به یکدیگر هستند – کاری غیرممکن برای یک انسان.

روندهای سطح بالا نشان می دهد که هزینه های گنجاندن و تنوع افزایش یافته است، در حالی که هزینه آب و هوا در چند سال گذشته به طرز شگفت آوری کاهش یافته است. می توانید مجموعه داده ها و روندهایی را که آنها تجزیه و تحلیل می کنند را در اینجا مشاهده کنید.

زمینه دیگری که کمتر کسی به آن فکر می کند، تعداد زیاد قطعات و اجزای ماشین آلات است که توسط صنایع مختلف با گیره ای عظیم تولید می شود. برخی را می توان دوباره استفاده کرد، برخی را بازیافت کرد، برخی دیگر را باید مسئولانه دفع کرد – اما افراد حرفه ای می توانند از آنها عبور کنند. تیم تحقیق و توسعه آلمانی Fraunhofer یک مدل یادگیری ماشینی برای شناسایی قطعات ایجاد کرده است تا بتوان از آنها به جای رفتن به محل دفن زباله استفاده کرد.

بخشی از آن به عنوان بخشی از نمایش هوش مصنوعی بر روی یک میز نشسته است.

اعتبار تصویر: فراونهوفر

این سیستم بیشتر به نماهای دوربین معمولی متکی است، زیرا ممکن است قطعات شبیه به هم اما بسیار متفاوت به نظر برسند، یا به دلیل زنگ زدگی یا فرسودگی از نظر مکانیکی یکسان باشند اما از نظر بصری متفاوت باشند. بنابراین هر قسمت نیز توسط دوربین های سه بعدی وزن و اسکن می شود و ابرداده به عنوان منبع نیز گنجانده شده است. سپس مدل پیشنهاد می‌کند که به نظر او قطعه چیست، به طوری که شخصی که آن را بررسی می‌کند مجبور نباشد از ابتدا شروع کند. امیدواریم با استفاده از این روش شناسایی به کمک هوش مصنوعی، ده ها هزار قطعه به زودی ذخیره شود و پردازش میلیون ها قطعه تسریع شود.

فیزیکدانان روش جالبی برای اعمال خواص ML در یک مسئله چند صد ساله یافته اند. در اصل، محققان همیشه به دنبال راه‌هایی برای نشان دادن این هستند که معادلات حاکم بر دینامیک سیالات (که برخی از آنها، مانند اویلر، به قرن هجدهم برمی‌گردد) ناقص هستند – که در مقادیر شدید خاصی شکسته می‌شوند. با استفاده از تکنیک های محاسباتی سنتی، این امر دشوار است، اما غیرممکن نیست. اما محققان در CIT و دانشگاه Hang Seng در هنگ کنگ روش آموزشی عمیق جدیدی را برای جداسازی موارد احتمالی تکینگی دینامیک سیالات پیشنهاد می‌کنند، در حالی که دیگران این روش را به روش‌های دیگر در این زمینه به کار می‌برند. این مقاله Quanta این پیشرفت جالب را به خوبی توضیح می دهد.

یکی دیگر از مفاهیم قرن قدمت برای به دست آوردن لایه ML، کیریگامی، هنر برش کاغذ است که بسیاری در زمینه ایجاد دانه های برف کاغذی با آن آشنا خواهند شد. قدمت این تکنیک به قرن ها به خصوص در ژاپن و چین باز می گردد و می تواند ساختارهای بسیار پیچیده و انعطاف پذیری تولید کند. محققان آزمایشگاه ملی آرگون از این مفهوم الهام گرفتند و مواد دو بعدی را نظریه‌پردازی کردند که می‌تواند الکترونیک را در مقیاس میکروسکوپی نگه دارد، اما به راحتی خم شود.

این تیم ده ها هزار آزمایش را با 1-6 برش با دست انجام دادند و از این داده ها برای آموزش مدل استفاده کردند. آنها سپس از یک ابر کامپیوتر وزارت نیرو برای انجام شبیه سازی در سطح مولکولی استفاده کردند. در عرض چند ثانیه، او نسخه ای با 10 برش با 40 درصد گسترش ایجاد کرد، بسیار فراتر از آن چیزی که تیم انتظار داشت یا حتی به تنهایی امتحان کرده بود.

شبیه سازی مولکول هایی که مواد دوبعدی قابل توسعه را تشکیل می دهند.

اعتبار تصویر: آزمایشگاه ملی آرگون

او چیزهایی را فهمید که ما هرگز به او نگفتیم که بفهمد. پانکاج راجک، مدیر پروژه، می‌گوید: «از روشی که فرد یاد می‌گیرد چیزهایی یاد گرفته است و از دانش خود برای انجام کاری متفاوت استفاده می‌کند. موفقیت آنها را بر آن داشت تا پیچیدگی و دامنه شبیه سازی را افزایش دهند.

یکی دیگر از برون یابی های جالبی که توسط یک هوش مصنوعی آموزش دیده انجام می شود، یک مدل بینایی کامپیوتری است که داده های رنگی را از ورودی های مادون قرمز بازسازی می کند. به طور معمول، دوربین عکاسی IR چیزی در مورد رنگ یک جسم در طیف مرئی نمی داند. اما این آزمایش همبستگی‌هایی را بین باندهای IR خاص و باندهای مرئی پیدا کرد و مدلی برای تبدیل تصاویر چهره‌های انسان گرفته‌شده در IR به تصاویری که به طیف مرئی نزدیک می‌شوند، ایجاد کرد.

Log4Shell برای هک سرورهای VMWare استفاده می شود

این هنوز فقط اثبات این مفهوم است، اما چنین انعطاف پذیری طیفی می تواند ابزار مفیدی در علم و عکاسی باشد.

در همین حال، یک مطالعه جدید توسط جف دین، یکی از نویسندگان هوش مصنوعی گوگل، این ایده را رد می کند که هوش مصنوعی به دلیل نیازهای محاسباتی بالا، تلاشی گران برای محیط زیست است. در حالی که برخی تحقیقات نشان داده اند که آموزش روی یک مدل بزرگ مانند GPT-3 OpenAI می تواند انتشار کربن ایجاد کند. معادل در مقایسه با محله های کوچک، یک مطالعه گوگل ادعا می کند که “پیروی از بهترین شیوه ها” می تواند انتشار کربن ناشی از یادگیری ماشینی را تا 1000 برابر کاهش دهد.

روش‌های مورد بحث به انواع مدل‌های مورد استفاده، ماشین‌های مورد استفاده برای آموزش مدل‌ها، «مکانیزه‌سازی» (مثلاً محاسبات ابری در مقابل رایانه‌های محلی) و «نقشه» (انتخاب سایت از پاک‌ترین مراکز داده انرژی) مربوط می‌شود. به گفته نویسندگان همکار، انتخاب تنها مدل‌های «کارآمد» می‌تواند محاسبات را با فاکتورهای 5 به 10 کاهش دهد، در حالی که استفاده از پردازنده‌های بهینه‌سازی شده برای یادگیری ماشین، مانند پردازنده‌های گرافیکی، می‌تواند نسبت وات را با فاکتورهای 2 به 5 بهبود بخشد. .

هر رشته تحقیقاتی که نشان دهد می توان تأثیر هوش مصنوعی بر محیط زیست را کاهش داد، در واقع دلیلی برای جشن گرفتن است. اما باید توجه داشت که گوگل یک کشور بی طرف نیست. بسیاری از محصولات این شرکت، از نقشه های گوگل گرفته تا جستجوی گوگل، بر مدل هایی متکی هستند که برای توسعه و راه اندازی به انرژی زیادی نیاز دارند.

مایک کوک، یکی از اعضای گروه تحقیقاتی با پایان باز Knives and Paint Brushes، اشاره می کند که – حتی اگر تخمین های تحقیقاتی دقیق باشند – وجود دارد اگر برای یک شرکت خوب است، دلیل خوبی برای رشد نکردن یک شرکت از نظر انرژی ناکارآمد نیست. در حالی که گروه‌های دانشگاهی ممکن است به شاخص‌هایی مانند تأثیر کربن توجه کنند، شرکت‌ها به همان شیوه تحریک نمی‌شوند – حداقل در حال حاضر.

“کل دلیلی که ما این گفتگو را شروع کردیم این بود که شرکت هایی مانند گوگل و OpenAI بودجه بی پایان موثری داشتند و تصمیم گرفتند از آن برای ساخت مدل هایی مانند GPT-3 و BERT به هر قیمتی استفاده کنند، زیرا می دانستند که این کار به آنها مزیتی می دهد.” کوک از طریق ایمیل به TechCrunch گفت. “بطور کلی، من فکر می کنم روزنامه چیزهای خوبی می گوید و اگر به کارایی فکر کنیم خیلی خوب است، اما به نظر من مشکل فنی نیست – ما مطمئناً می دانیم که این شرکت ها وقتی مجبور شوند بزرگ می شوند، آنها برنده نمی شوند. گفتن اینکه این قبلا برای همیشه تصمیم گرفته شده است، مانند یک خط خالی است.

موضوع آخر این هفته واقعاً در مورد یادگیری ماشینی نیست، بلکه در مورد شبیه‌سازی مغز به روشی مستقیم‌تر چه چیزی می‌تواند راهگشا باشد. محققان بیوانفورماتیک EPFL یک مدل ریاضی برای ایجاد هزاران نورون شبیه‌سازی شده منحصر به فرد اما دقیق ایجاد کرده‌اند که در نهایت می‌توانند برای ساختن دوقلوهای دیجیتالی در آناتومی عصبی مورد استفاده قرار گیرند.

لیدا کاناری، محقق، گفت: «یافته‌ها اکنون به Blue Brain امکان بازسازی و شبیه‌سازی دقیق بیولوژیکی مغز موش را با بازسازی محاسباتی نواحی مغز برای شبیه‌سازی‌هایی که ویژگی‌های آناتومیکی مورفولوژی‌های عصبی را بازتولید می‌کنند و شامل آناتومی ناحیه‌ای خاص می‌شود، می‌سازد.»

انتظار نداشته باشید که sim-brains هوش مصنوعی بهتری ایجاد کنند – این در تعقیب پیشرفت‌های علوم اعصاب است – اما شاید بینش شبکه‌های عصبی شبیه‌سازی شده می‌تواند منجر به پیشرفت‌های اساسی در درک فرآیندهایی شود که هوش مصنوعی به دنبال تقلید دیجیتالی است.