
گوگل آموزش سیستمهای هوش مصنوعی را که میتوان از آنها برای تولید تقلبهای عمیق در پلتفرم Google Collaborative خود استفاده کرد، ممنوع کرد. شرایط استفاده به روز شده که در آخر هفته توسط BleepingComputer مورد توجه قرار گرفت، شامل کارهای مربوط به دیپ فیک در لیست پروژه های ممنوعه است.
Colaboratory یا به اختصار Colab از پروژه تحقیقاتی داخلی Google در اواخر سال 2017 جدا شد. این برنامه به گونه ای طراحی شده است که به هر کسی اجازه می دهد هر کد پایتون را از طریق یک مرورگر وب بنویسد و اجرا کند، به ویژه کدهایی برای یادگیری ماشین، آموزش و تجزیه و تحلیل داده ها . برای این منظور، گوگل دسترسی رایگان و پولی به سخت افزار کاربران Colab، از جمله پردازنده های گرافیکی و پردازنده های Tensor (TPU) سفارشی شتاب دهنده هوش مصنوعی گوگل را فراهم می کند.
در سالهای اخیر، Colab به یک پلتفرم عملی برای تظاهرات در جامعه تحقیقاتی هوش مصنوعی تبدیل شده است. برای محققانی که کد نوشته اند، پیوندهایی به صفحات Colab در یا به مخازن GitHub که میزبان کد هستند، غیر معمول نیست. اما گوگل از لحاظ تاریخی در مورد محتوای Colab که به طور بالقوه در را به روی بازیگرانی میگشاید که میخواهند از این سرویس برای اهداف کمتر دقیقتر استفاده کنند، بسیار محدودکننده نبوده است.
کاربران مولد تقلبی منبع باز DeepFaceLab هفته گذشته زمانی که چندین نفر پس از تلاش برای اجرای DeepFaceLab در Colab، پیام خطا دریافت کردند، از این تغییر از نظر استفاده مطلع شدند. در این هشدار آمده است: «شما ممکن است کدی را اجرا کنید که ممنوع است و این ممکن است توانایی شما را برای استفاده از Colab در آینده محدود کند. لطفاً به اقدامات ممنوعه ذکر شده در سؤالات متداول ما توجه کنید.”
هر کدی اخطار ایجاد نمی کند. این گزارشگر توانست یکی از محبوبترین پروژههای جعلی عمیق Colab را بدون مشکل راهاندازی کند و کاربران Reddit گزارش دادند که پروژه پرچمدار دیگری، FaceSwap، کاملاً کاربردی است. این بدان معناست که برنامه بر اساس یک لیست سیاه است و نه بر اساس کلمات کلیدی، و مسئولیت گزارش کدهای مغایر با قانون جدید بر عهده انجمن Colab خواهد بود.
ما به طور مرتب راههایی را که سوءاستفادههای Colab بر خلاف اصول هوش مصنوعی گوگل است، نظارت میکنیم و در عین حال تعادلی را در حمایت از ماموریت خود برای دسترسی کاربران خود به منابع ارزشمند مانند TPU و GPU حفظ میکنیم. یکی از سخنگویان گوگل از طریق ایمیل به TechCrunch گفت: Deepfakes ماه گذشته در پاسخ به بررسیهای منظم ما از مدلهای سوءاستفاده به لیست فعالیتهای ما که از زمان Colab ممنوع شده بود اضافه شد. «پیشگیری از سوء استفاده یک بازی همیشه در حال تکامل است و ما نمیتوانیم روشهای خاصی را آشکار کنیم، زیرا طرفین میتوانند از دانش برای فرار از سیستمهای تشخیص استفاده کنند. به طور کلی، ما سیستمهای خودکاری داریم که بسیاری از انواع سوءاستفاده را شناسایی و ممنوع میکنند.»
داده های Archive.org نشان می دهد که گوگل بی سر و صدا شرایط Colab را در اواسط ماه می به روز می کند. محدودیتهای قبلی در مورد مواردی مانند حملات انکار سرویس، شکستن رمز عبور و دانلودهای تورنت بدون تغییر باقی ماندند.
دیپ فیک اشکال مختلفی دارد، اما یکی از رایج ترین آنها ویدئوهایی است که در آن صورت یک فرد به طور قانع کننده ای به شخص دیگری چسبانده می شود. برخلاف کارهای خام فتوشاپ در گذشته، تقلبیهای تقلبی جعلی تولید شده میتوانند در برخی موارد با حرکات بدن، حالتهای ریز و رنگ پوست بهتر از CGI هالیوود مطابقت داشته باشند.
همانطور که ویدیوهای ویروسی بی شماری نشان می دهند، دیپ فیک می تواند بی ضرر باشد – حتی سرگرم کننده. اما آنها به طور فزاینده ای توسط هکرها برای هدف قرار دادن کاربران رسانه های اجتماعی در طرح های اخاذی و کلاهبرداری استفاده می شوند. بدتر از آن، از آنها در تبلیغات سیاسی استفاده شده است، به عنوان مثال برای ایجاد ویدیوهایی از رئیس جمهور اوکراین، ولودیمیر زلنسکی که در مورد جنگ در اوکراین صحبت می کند، چیزی که او هرگز در مورد آن صحبت نکرده است.
طبق یک منبع، از سال 2019 تا 2021، تعداد تقلبی های عمیق آنلاین از تقریباً 14000 به 145000 افزایش یافته است. Forrester Research در اکتبر 2019 تخمین زد که تقلب تقلبی تا پایان سال 2020 250 میلیون دلار هزینه خواهد داشت.
واگرانت گاوتام، زبان شناس کامپیوتری در دانشگاه زارلند آلمان، از طریق ایمیل به TechCrunch گفت: «وقتی به طور خاص صحبت از جعل عمیق می شود، مهم ترین مسئله اخلاقی است: استفاده دوگانه. «این کمی شبیه فکر کردن به اسلحه یا کلر است. کلر برای تمیز کردن اشیا مفید است، اما به عنوان یک سلاح شیمیایی نیز استفاده می شود. بنابراین، ابتدا به این موضوع فکر می کنیم که این فناوری چقدر بد است و سپس، برای مثال، در مورد پروتکل ژنو توافق می کنیم که از سلاح های شیمیایی علیه یکدیگر استفاده نخواهیم کرد. متأسفانه، ما رویههای اخلاقی ثابتی در سراسر صنعت یادگیری ماشینی و هوش مصنوعی نداریم، اما منطقی است که گوگل مجموعهای از قراردادهای خود را در مورد دسترسی و توانایی ایجاد تقلبهای عمیق ارائه کند، بهویژه از آنجایی که اغلب از آنها استفاده میشود. اطلاعات نادرست و انتشار اخبار جعلی – مشکلی که بد است و بدتر می شود.
Osse Keys، دانشیار دانشگاه سیاتل نیز اقدام گوگل را برای ممنوعیت پروژه های عمیقا جعلی Colab تایید کرد. اما او خاطرنشان کرد که برای جلوگیری از ایجاد و انتشار آنها باید بیشتر از سوی سیاست انجام شود.
کیز از طریق ایمیل به TechCrunch گفت: «روشی که این کار انجام میشود قطعاً بر فقر شرکتهای خود نظارتی تأکید میکند. «جعلهای عمیق مطلقاً شکل قابل قبولی از کار نیستند، خوب، در همه جا، و بنابراین خوب است که گوگل در این کار شریک جرم نباشد… اما ممنوعیت در خلأ اتفاق نمیافتد، بلکه در یک محیط اتفاق میافتد. در جایی که واقعی است، فقدان مقررات مسئول و پاسخگو در مورد این نوع پلتفرم های توسعه (و شرکت ها) وجود دارد.
دیگران، به ویژه آنهایی که از رویکرد لایسز فر قبلی کولب در حکومت استفاده کرده اند، ممکن است مخالف باشند. سالها پیش، آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI در ابتدا از باز کردن کد برای تولید زبان مدل GPT-2 خودداری کرد، زیرا میترسید که از آن سوء استفاده شود. این امر به گروههایی مانند EleutherAI انگیزه میدهد تا از ابزارهایی از جمله Colab برای توسعه و راهاندازی مدلهای تولید زبان خود، ظاهراً برای تحقیق، استفاده کنند.
وقتی سال گذشته با Conor Leahy، یکی از اعضای EleutherAI صحبت کردم، او گفت که تبدیل مدلهای هوش مصنوعی به کالا بخشی از یک «روند اجتنابناپذیر» در کاهش هزینههای تولید «محتوای دیجیتال متقاعدکننده» است که از ریل خارج نمیشود. کد منتشر نمی شود یا نه به گفته وی، مدلها و ابزارهای هوش مصنوعی باید به طور گسترده در دسترس باشند تا کاربران کممنابع، بهویژه دانشگاهیان بتوانند به تحقیقات بهتری دسترسی داشته باشند و تحقیقات مبتنی بر ایمنی خود را انجام دهند.
«دیپفیکها پتانسیل زیادی برای مغایرت با اصول هوش مصنوعی گوگل دارند. او گفت: «ما تلاش میکنیم تا بتوانیم سوءاستفاده از مدلهای تقلبی عمیق را در برابر نمونههای خوشخیم شناسایی و جلوگیری کنیم و با پیشرفت روشهایمان، سیاستهای خود را تغییر خواهیم داد.» “کاربرانی که مایل به تحقیق کم روی پروژه های رسانه مصنوعی هستند، تشویق می شوند تا با نماینده Google Cloud صحبت کنند تا استفاده آنها را تأیید کنند و مناسب بودن سایر پیشنهادات محاسباتی مدیریت شده در Google Cloud را بررسی کنند.”