
تحقیقات در زمینه یادگیری ماشینی و هوش مصنوعی، که اکنون یک فناوری کلیدی در تقریباً هر صنعت و شرکتی است، برای هر کسی بسیار حجیم است. هدف این ستون جمعآوری برخی از جدیدترین اکتشافات و اسناد – به ویژه در هوش مصنوعی، اما نه محدود به آن – و توضیح دلیل اهمیت آنهاست.
این هفته، برنامه های کاربردی هوش مصنوعی به دلیل توانایی آن در مرتب سازی مقادیر زیادی از داده ها یا پیش بینی های معقول بر اساس شواهد محدود، در چندین جایگاه غیرمنتظره کشف شد.
ما دیدهایم که مدلهای یادگیری ماشینی مجموعههای بزرگی از دادهها را در بیوتکنولوژی و امور مالی جذب میکنند، اما محققان ETH زوریخ و LMU مونیخ تکنیکهای مشابهی را برای دادههای تولید شده توسط پروژههای کمکهای توسعه بینالمللی، مانند کمکهای بلایا و مسکن به کار میبرند. این تیم مدل خود را بر روی میلیونها پروژه (به ارزش 2.8 تریلیون دلار) در طول 20 سال گذشته آموزش داده است، مجموعهای از دادهها که برای تجزیه و تحلیل دستی با جزئیات بسیار پیچیده است.
میتوانید این فرآیند را تلاشی برای خواندن یک کتابخانه کامل و دستهبندی چنین کتابهایی در قفسههایی با موضوعات خاص در نظر بگیرید. Malte Tocke، نویسنده این مطالعه گفت: الگوریتم ما 200 بعد مختلف را در نظر می گیرد تا مشخص کند این 3.2 میلیون پروژه چقدر شبیه به یکدیگر هستند – کاری غیرممکن برای یک انسان.
روندهای سطح بالا نشان می دهد که هزینه های گنجاندن و تنوع افزایش یافته است، در حالی که هزینه آب و هوا در چند سال گذشته به طرز شگفت آوری کاهش یافته است. می توانید مجموعه داده ها و روندهایی را که آنها تجزیه و تحلیل می کنند را در اینجا مشاهده کنید.
زمینه دیگری که کمتر کسی به آن فکر می کند، تعداد زیاد قطعات و اجزای ماشین آلات است که توسط صنایع مختلف با گیره ای عظیم تولید می شود. برخی را می توان دوباره استفاده کرد، برخی را بازیافت کرد، برخی دیگر را باید مسئولانه دفع کرد – اما افراد حرفه ای می توانند از آنها عبور کنند. تیم تحقیق و توسعه آلمانی Fraunhofer یک مدل یادگیری ماشینی برای شناسایی قطعات ایجاد کرده است تا بتوان از آنها به جای رفتن به محل دفن زباله استفاده کرد.

اعتبار تصویر: فراونهوفر
این سیستم بیشتر به نماهای دوربین معمولی متکی است، زیرا ممکن است قطعات شبیه به هم اما بسیار متفاوت به نظر برسند، یا به دلیل زنگ زدگی یا فرسودگی از نظر مکانیکی یکسان باشند اما از نظر بصری متفاوت باشند. بنابراین هر قسمت نیز توسط دوربین های سه بعدی وزن و اسکن می شود و ابرداده به عنوان منبع نیز گنجانده شده است. سپس مدل پیشنهاد میکند که به نظر او قطعه چیست، به طوری که شخصی که آن را بررسی میکند مجبور نباشد از ابتدا شروع کند. امیدواریم با استفاده از این روش شناسایی به کمک هوش مصنوعی، ده ها هزار قطعه به زودی ذخیره شود و پردازش میلیون ها قطعه تسریع شود.
فیزیکدانان روش جالبی برای اعمال خواص ML در یک مسئله چند صد ساله یافته اند. در اصل، محققان همیشه به دنبال راههایی برای نشان دادن این هستند که معادلات حاکم بر دینامیک سیالات (که برخی از آنها، مانند اویلر، به قرن هجدهم برمیگردد) ناقص هستند – که در مقادیر شدید خاصی شکسته میشوند. با استفاده از تکنیک های محاسباتی سنتی، این امر دشوار است، اما غیرممکن نیست. اما محققان در CIT و دانشگاه Hang Seng در هنگ کنگ روش آموزشی عمیق جدیدی را برای جداسازی موارد احتمالی تکینگی دینامیک سیالات پیشنهاد میکنند، در حالی که دیگران این روش را به روشهای دیگر در این زمینه به کار میبرند. این مقاله Quanta این پیشرفت جالب را به خوبی توضیح می دهد.
یکی دیگر از مفاهیم قرن قدمت برای به دست آوردن لایه ML، کیریگامی، هنر برش کاغذ است که بسیاری در زمینه ایجاد دانه های برف کاغذی با آن آشنا خواهند شد. قدمت این تکنیک به قرن ها به خصوص در ژاپن و چین باز می گردد و می تواند ساختارهای بسیار پیچیده و انعطاف پذیری تولید کند. محققان آزمایشگاه ملی آرگون از این مفهوم الهام گرفتند و مواد دو بعدی را نظریهپردازی کردند که میتواند الکترونیک را در مقیاس میکروسکوپی نگه دارد، اما به راحتی خم شود.
این تیم ده ها هزار آزمایش را با 1-6 برش با دست انجام دادند و از این داده ها برای آموزش مدل استفاده کردند. آنها سپس از یک ابر کامپیوتر وزارت نیرو برای انجام شبیه سازی در سطح مولکولی استفاده کردند. در عرض چند ثانیه، او نسخه ای با 10 برش با 40 درصد گسترش ایجاد کرد، بسیار فراتر از آن چیزی که تیم انتظار داشت یا حتی به تنهایی امتحان کرده بود.

اعتبار تصویر: آزمایشگاه ملی آرگون
او چیزهایی را فهمید که ما هرگز به او نگفتیم که بفهمد. پانکاج راجک، مدیر پروژه، میگوید: «از روشی که فرد یاد میگیرد چیزهایی یاد گرفته است و از دانش خود برای انجام کاری متفاوت استفاده میکند. موفقیت آنها را بر آن داشت تا پیچیدگی و دامنه شبیه سازی را افزایش دهند.
یکی دیگر از برون یابی های جالبی که توسط یک هوش مصنوعی آموزش دیده انجام می شود، یک مدل بینایی کامپیوتری است که داده های رنگی را از ورودی های مادون قرمز بازسازی می کند. به طور معمول، دوربین عکاسی IR چیزی در مورد رنگ یک جسم در طیف مرئی نمی داند. اما این آزمایش همبستگیهایی را بین باندهای IR خاص و باندهای مرئی پیدا کرد و مدلی برای تبدیل تصاویر چهرههای انسان گرفتهشده در IR به تصاویری که به طیف مرئی نزدیک میشوند، ایجاد کرد.
این هنوز فقط اثبات این مفهوم است، اما چنین انعطاف پذیری طیفی می تواند ابزار مفیدی در علم و عکاسی باشد.
–
در همین حال، یک مطالعه جدید توسط جف دین، یکی از نویسندگان هوش مصنوعی گوگل، این ایده را رد می کند که هوش مصنوعی به دلیل نیازهای محاسباتی بالا، تلاشی گران برای محیط زیست است. در حالی که برخی تحقیقات نشان داده اند که آموزش روی یک مدل بزرگ مانند GPT-3 OpenAI می تواند انتشار کربن ایجاد کند. معادل در مقایسه با محله های کوچک، یک مطالعه گوگل ادعا می کند که “پیروی از بهترین شیوه ها” می تواند انتشار کربن ناشی از یادگیری ماشینی را تا 1000 برابر کاهش دهد.
روشهای مورد بحث به انواع مدلهای مورد استفاده، ماشینهای مورد استفاده برای آموزش مدلها، «مکانیزهسازی» (مثلاً محاسبات ابری در مقابل رایانههای محلی) و «نقشه» (انتخاب سایت از پاکترین مراکز داده انرژی) مربوط میشود. به گفته نویسندگان همکار، انتخاب تنها مدلهای «کارآمد» میتواند محاسبات را با فاکتورهای 5 به 10 کاهش دهد، در حالی که استفاده از پردازندههای بهینهسازی شده برای یادگیری ماشین، مانند پردازندههای گرافیکی، میتواند نسبت وات را با فاکتورهای 2 به 5 بهبود بخشد. .
هر رشته تحقیقاتی که نشان دهد می توان تأثیر هوش مصنوعی بر محیط زیست را کاهش داد، در واقع دلیلی برای جشن گرفتن است. اما باید توجه داشت که گوگل یک کشور بی طرف نیست. بسیاری از محصولات این شرکت، از نقشه های گوگل گرفته تا جستجوی گوگل، بر مدل هایی متکی هستند که برای توسعه و راه اندازی به انرژی زیادی نیاز دارند.
مایک کوک، یکی از اعضای گروه تحقیقاتی با پایان باز Knives and Paint Brushes، اشاره می کند که – حتی اگر تخمین های تحقیقاتی دقیق باشند – وجود دارد اگر برای یک شرکت خوب است، دلیل خوبی برای رشد نکردن یک شرکت از نظر انرژی ناکارآمد نیست. در حالی که گروههای دانشگاهی ممکن است به شاخصهایی مانند تأثیر کربن توجه کنند، شرکتها به همان شیوه تحریک نمیشوند – حداقل در حال حاضر.
“کل دلیلی که ما این گفتگو را شروع کردیم این بود که شرکت هایی مانند گوگل و OpenAI بودجه بی پایان موثری داشتند و تصمیم گرفتند از آن برای ساخت مدل هایی مانند GPT-3 و BERT به هر قیمتی استفاده کنند، زیرا می دانستند که این کار به آنها مزیتی می دهد.” کوک از طریق ایمیل به TechCrunch گفت. “بطور کلی، من فکر می کنم روزنامه چیزهای خوبی می گوید و اگر به کارایی فکر کنیم خیلی خوب است، اما به نظر من مشکل فنی نیست – ما مطمئناً می دانیم که این شرکت ها وقتی مجبور شوند بزرگ می شوند، آنها برنده نمی شوند. گفتن اینکه این قبلا برای همیشه تصمیم گرفته شده است، مانند یک خط خالی است.
موضوع آخر این هفته واقعاً در مورد یادگیری ماشینی نیست، بلکه در مورد شبیهسازی مغز به روشی مستقیمتر چه چیزی میتواند راهگشا باشد. محققان بیوانفورماتیک EPFL یک مدل ریاضی برای ایجاد هزاران نورون شبیهسازی شده منحصر به فرد اما دقیق ایجاد کردهاند که در نهایت میتوانند برای ساختن دوقلوهای دیجیتالی در آناتومی عصبی مورد استفاده قرار گیرند.
لیدا کاناری، محقق، گفت: «یافتهها اکنون به Blue Brain امکان بازسازی و شبیهسازی دقیق بیولوژیکی مغز موش را با بازسازی محاسباتی نواحی مغز برای شبیهسازیهایی که ویژگیهای آناتومیکی مورفولوژیهای عصبی را بازتولید میکنند و شامل آناتومی ناحیهای خاص میشود، میسازد.»
انتظار نداشته باشید که sim-brains هوش مصنوعی بهتری ایجاد کنند – این در تعقیب پیشرفتهای علوم اعصاب است – اما شاید بینش شبکههای عصبی شبیهسازی شده میتواند منجر به پیشرفتهای اساسی در درک فرآیندهایی شود که هوش مصنوعی به دنبال تقلید دیجیتالی است.