منو سایت

گوگل کولب را از تولید تقلبی های عمیق هوش مصنوعی منع می کند

 تاریخ انتشار :
/
  اخبار استارتاپ
تصاویر پس زمینه از جولای 1401

گوگل آموزش سیستم‌های هوش مصنوعی را که می‌توان از آنها برای تولید تقلب‌های عمیق در پلتفرم Google Collaborative خود استفاده کرد، ممنوع کرد. شرایط استفاده به روز شده که در آخر هفته توسط BleepingComputer مورد توجه قرار گرفت، شامل کارهای مربوط به دیپ فیک در لیست پروژه های ممنوعه است.

Colaboratory یا به اختصار Colab از پروژه تحقیقاتی داخلی Google در اواخر سال 2017 جدا شد. این برنامه به گونه ای طراحی شده است که به هر کسی اجازه می دهد هر کد پایتون را از طریق یک مرورگر وب بنویسد و اجرا کند، به ویژه کدهایی برای یادگیری ماشین، آموزش و تجزیه و تحلیل داده ها . برای این منظور، گوگل دسترسی رایگان و پولی به سخت افزار کاربران Colab، از جمله پردازنده های گرافیکی و پردازنده های Tensor (TPU) سفارشی شتاب دهنده هوش مصنوعی گوگل را فراهم می کند.

در سال‌های اخیر، Colab به یک پلتفرم عملی برای تظاهرات در جامعه تحقیقاتی هوش مصنوعی تبدیل شده است. برای محققانی که کد نوشته اند، پیوندهایی به صفحات Colab در یا به مخازن GitHub که میزبان کد هستند، غیر معمول نیست. اما گوگل از لحاظ تاریخی در مورد محتوای Colab که به طور بالقوه در را به روی بازیگرانی می‌گشاید که می‌خواهند از این سرویس برای اهداف کمتر دقیق‌تر استفاده کنند، بسیار محدودکننده نبوده است.

کاربران مولد تقلبی منبع باز DeepFaceLab هفته گذشته زمانی که چندین نفر پس از تلاش برای اجرای DeepFaceLab در Colab، پیام خطا دریافت کردند، از این تغییر از نظر استفاده مطلع شدند. در این هشدار آمده است: «شما ممکن است کدی را اجرا کنید که ممنوع است و این ممکن است توانایی شما را برای استفاده از Colab در آینده محدود کند. لطفاً به اقدامات ممنوعه ذکر شده در سؤالات متداول ما توجه کنید.”

هر کدی اخطار ایجاد نمی کند. این گزارشگر توانست یکی از محبوب‌ترین پروژه‌های جعلی عمیق Colab را بدون مشکل راه‌اندازی کند و کاربران Reddit گزارش دادند که پروژه پرچم‌دار دیگری، FaceSwap، کاملاً کاربردی است. این بدان معناست که برنامه بر اساس یک لیست سیاه است و نه بر اساس کلمات کلیدی، و مسئولیت گزارش کدهای مغایر با قانون جدید بر عهده انجمن Colab خواهد بود.

ما به طور مرتب راه‌هایی را که سوءاستفاده‌های Colab بر خلاف اصول هوش مصنوعی گوگل است، نظارت می‌کنیم و در عین حال تعادلی را در حمایت از ماموریت خود برای دسترسی کاربران خود به منابع ارزشمند مانند TPU و GPU حفظ می‌کنیم. یکی از سخنگویان گوگل از طریق ایمیل به TechCrunch گفت: Deepfakes ماه گذشته در پاسخ به بررسی‌های منظم ما از مدل‌های سوءاستفاده به لیست فعالیت‌های ما که از زمان Colab ممنوع شده بود اضافه شد. «پیشگیری از سوء استفاده یک بازی همیشه در حال تکامل است و ما نمی‌توانیم روش‌های خاصی را آشکار کنیم، زیرا طرفین می‌توانند از دانش برای فرار از سیستم‌های تشخیص استفاده کنند. به طور کلی، ما سیستم‌های خودکاری داریم که بسیاری از انواع سوءاستفاده را شناسایی و ممنوع می‌کنند.»

داده های Archive.org نشان می دهد که گوگل بی سر و صدا شرایط Colab را در اواسط ماه می به روز می کند. محدودیت‌های قبلی در مورد مواردی مانند حملات انکار سرویس، شکستن رمز عبور و دانلودهای تورنت بدون تغییر باقی ماندند.

دیپ فیک اشکال مختلفی دارد، اما یکی از رایج ترین آنها ویدئوهایی است که در آن صورت یک فرد به طور قانع کننده ای به شخص دیگری چسبانده می شود. برخلاف کارهای خام فتوشاپ در گذشته، تقلبی‌های تقلبی جعلی تولید شده می‌توانند در برخی موارد با حرکات بدن، حالت‌های ریز و رنگ پوست بهتر از CGI هالیوود مطابقت داشته باشند.

همانطور که ویدیوهای ویروسی بی شماری نشان می دهند، دیپ فیک می تواند بی ضرر باشد – حتی سرگرم کننده. اما آنها به طور فزاینده ای توسط هکرها برای هدف قرار دادن کاربران رسانه های اجتماعی در طرح های اخاذی و کلاهبرداری استفاده می شوند. بدتر از آن، از آنها در تبلیغات سیاسی استفاده شده است، به عنوان مثال برای ایجاد ویدیوهایی از رئیس جمهور اوکراین، ولودیمیر زلنسکی که در مورد جنگ در اوکراین صحبت می کند، چیزی که او هرگز در مورد آن صحبت نکرده است.

طبق یک منبع، از سال 2019 تا 2021، تعداد تقلبی های عمیق آنلاین از تقریباً 14000 به 145000 افزایش یافته است. Forrester Research در اکتبر 2019 تخمین زد که تقلب تقلبی تا پایان سال 2020 250 میلیون دلار هزینه خواهد داشت.

واگرانت گاوتام، زبان شناس کامپیوتری در دانشگاه زارلند آلمان، از طریق ایمیل به TechCrunch گفت: «وقتی به طور خاص صحبت از جعل عمیق می شود، مهم ترین مسئله اخلاقی است: استفاده دوگانه. «این کمی شبیه فکر کردن به اسلحه یا کلر است. کلر برای تمیز کردن اشیا مفید است، اما به عنوان یک سلاح شیمیایی نیز استفاده می شود. بنابراین، ابتدا به این موضوع فکر می کنیم که این فناوری چقدر بد است و سپس، برای مثال، در مورد پروتکل ژنو توافق می کنیم که از سلاح های شیمیایی علیه یکدیگر استفاده نخواهیم کرد. متأسفانه، ما رویه‌های اخلاقی ثابتی در سراسر صنعت یادگیری ماشینی و هوش مصنوعی نداریم، اما منطقی است که گوگل مجموعه‌ای از قراردادهای خود را در مورد دسترسی و توانایی ایجاد تقلب‌های عمیق ارائه کند، به‌ویژه از آنجایی که اغلب از آنها استفاده می‌شود. اطلاعات نادرست و انتشار اخبار جعلی – مشکلی که بد است و بدتر می شود.

Osse Keys، دانشیار دانشگاه سیاتل نیز اقدام گوگل را برای ممنوعیت پروژه های عمیقا جعلی Colab تایید کرد. اما او خاطرنشان کرد که برای جلوگیری از ایجاد و انتشار آنها باید بیشتر از سوی سیاست انجام شود.

کیز از طریق ایمیل به TechCrunch گفت: «روشی که این کار انجام می‌شود قطعاً بر فقر شرکت‌های خود نظارتی تأکید می‌کند. «جعل‌های عمیق مطلقاً شکل قابل قبولی از کار نیستند، خوب، در همه جا، و بنابراین خوب است که گوگل در این کار شریک جرم نباشد… اما ممنوعیت در خلأ اتفاق نمی‌افتد، بلکه در یک محیط اتفاق می‌افتد. در جایی که واقعی است، فقدان مقررات مسئول و پاسخگو در مورد این نوع پلتفرم های توسعه (و شرکت ها) وجود دارد.

دیگران، به ویژه آنهایی که از رویکرد لایسز فر قبلی کولب در حکومت استفاده کرده اند، ممکن است مخالف باشند. سال‌ها پیش، آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI در ابتدا از باز کردن کد برای تولید زبان مدل GPT-2 خودداری کرد، زیرا می‌ترسید که از آن سوء استفاده شود. این امر به گروه‌هایی مانند EleutherAI انگیزه می‌دهد تا از ابزارهایی از جمله Colab برای توسعه و راه‌اندازی مدل‌های تولید زبان خود، ظاهراً برای تحقیق، استفاده کنند.

وقتی سال گذشته با Conor Leahy، یکی از اعضای EleutherAI صحبت کردم، او گفت که تبدیل مدل‌های هوش مصنوعی به کالا بخشی از یک «روند اجتناب‌ناپذیر» در کاهش هزینه‌های تولید «محتوای دیجیتال متقاعدکننده» است که از ریل خارج نمی‌شود. کد منتشر نمی شود یا نه به گفته وی، مدل‌ها و ابزارهای هوش مصنوعی باید به طور گسترده در دسترس باشند تا کاربران کم‌منابع، به‌ویژه دانشگاهیان بتوانند به تحقیقات بهتری دسترسی داشته باشند و تحقیقات مبتنی بر ایمنی خود را انجام دهند.

«دیپ‌فیک‌ها پتانسیل زیادی برای مغایرت با اصول هوش مصنوعی گوگل دارند. او گفت: «ما تلاش می‌کنیم تا بتوانیم سوءاستفاده از مدل‌های تقلبی عمیق را در برابر نمونه‌های خوش‌خیم شناسایی و جلوگیری کنیم و با پیشرفت روش‌هایمان، سیاست‌های خود را تغییر خواهیم داد.» “کاربرانی که مایل به تحقیق کم روی پروژه های رسانه مصنوعی هستند، تشویق می شوند تا با نماینده Google Cloud صحبت کنند تا استفاده آنها را تأیید کنند و مناسب بودن سایر پیشنهادات محاسباتی مدیریت شده در Google Cloud را بررسی کنند.”