منو سایت

هوش مصنوعی در حال حاضر در حال تغییر ژئوپلیتیک است

 تاریخ انتشار :
/
  اخبار استارتاپ
هوش مصنوعی در حال حاضر در حال تغییر ژئوپلیتیک است

پروژه امور جهانی TechCrunch به بررسی رابطه متقابل رو به رشد بین بخش فناوری و سیاست جهانی می پردازد.

بازیگران ژئوپلیتیک همواره از فناوری برای رسیدن به اهداف خود استفاده کرده اند. برخلاف سایر فناوری‌ها، هوش مصنوعی (AI) بسیار بیشتر از یک ابزار است. ما نمی‌خواهیم هوش مصنوعی را انسان‌سازی کنیم یا فرض کنیم که آن نیات خاص خود را دارد. او هنوز یک عامل اخلاقی نیست. اما به سرعت در حال تبدیل شدن به یک تعیین کننده اصلی برای سرنوشت جمعی ما است. ما معتقدیم که به دلیل ویژگی‌های منحصر به فرد هوش مصنوعی – و تأثیر آن بر سایر حوزه‌ها، از بیوتکنولوژی گرفته تا نانوتکنولوژی – در حال حاضر پایه‌های صلح و امنیت جهانی را تهدید می‌کند.

سرعت سریع توسعه فناوری هوش مصنوعی، همراه با دامنه کاربردهای جدید (انتظار می‌رود اندازه بازار جهانی هوش مصنوعی از سال 2020 تا 2028 بیش از 9 برابر افزایش یابد) به این معنی است که سیستم‌های هوش مصنوعی به طور گسترده بدون نظارت قانونی کافی یا کامل مستقر می‌شوند. در نظر گرفتن تأثیرات اخلاقی آنها این شکاف که اغلب مشکل سرعت نامیده می شود، باعث شده است که قوه مقننه و مجریه به سادگی قادر به مقابله نباشند.

به هر حال، پیش بینی تأثیر فناوری های جدید اغلب دشوار است. گوشی‌های هوشمند و رسانه‌های اجتماعی مدت‌ها قبل از اینکه ما به طور کامل از پتانسیل سوء استفاده آن‌ها قدردانی کنیم، وارد زندگی روزمره شده‌اند. به همین ترتیب، درک پیامدهای فناوری تشخیص چهره برای نقض حریم خصوصی و حقوق بشر زمان برد.

برخی از کشورها از هوش مصنوعی برای دستکاری افکار عمومی با تعیین اینکه مردم چه اطلاعاتی می بینند و استفاده از نظارت برای محدود کردن آزادی بیان استفاده می کنند.
از پروژه امور جهانی TechCrunch بیشتر بخوانید

با نگاهی بیشتر، ما نمی‌دانیم کدام چالش‌هایی که در حال حاضر در حال بررسی هستند منجر به نوآوری می‌شوند و چگونه این نوآوری‌ها با یکدیگر و با محیط وسیع‌تر تعامل خواهند داشت.

این مشکلات به ویژه در هوش مصنوعی حاد هستند، زیرا ابزارهایی که الگوریتم‌های یادگیری از طریق آن به نتایج خود می‌رسند اغلب غیرقابل درک هستند. هنگامی که عوارض جانبی یافت می شود، ممکن است تعیین علت آن دشوار یا غیرممکن باشد. سیستم هایی که دائماً در حال یادگیری و تغییر رفتار خود هستند را نمی توان دائماً از نظر ایمنی آزمایش و تأیید کرد.

سیستم‌های هوش مصنوعی می‌توانند بدون دخالت انسان یا بدون دخالت انسان عمل کنند. برای تصور سناریوهای خطرناک، لازم نیست یک رمان علمی تخیلی بخوانید. سیستم‌های خودمختار خطر تضعیف این اصل را دارند که همیشه باید یک عامل – انسانی یا شرکتی – وجود داشته باشد که بتواند در قبال اقدامات جهانی پاسخگو باشد – به‌ویژه وقتی صحبت از جنگ و صلح می‌شود. ما نمی‌توانیم سیستم‌ها را پاسخگو بدانیم، و کسانی که آنها را پیاده‌سازی می‌کنند استدلال می‌کنند که وقتی سیستم‌ها به روش‌های غیرقابل پیش‌بینی عمل می‌کنند، مسئول نیستند.

به طور خلاصه، ما معتقدیم که جوامع ما برای هوش مصنوعی آماده نیستند – از نظر سیاسی، قانونی یا اخلاقی. جهان همچنین برای اینکه چگونه هوش مصنوعی ژئوپلیتیک و اخلاق روابط بین‌الملل را متحول کند، آماده نیست. ما سه راه را شناسایی می کنیم که از طریق آنها می تواند این اتفاق بیفتد.

اول، توسعه هوش مصنوعی توازن قدرت بین کشورها را تغییر خواهد داد. فناوری همیشه قدرت ژئوپلیتیک را شکل داده است. در قرن نوزدهم و اوایل قرن بیستم، نظم بین‌المللی بر اساس فرصت‌های صنعتی در حال ظهور – کشتی‌های بخار، هواپیما و غیره بود. بعدها کنترل منابع نفت و گاز طبیعی اهمیت فزاینده ای پیدا کرد.

همه قدرت های بزرگ به وضوح از پتانسیل هوش مصنوعی برای پیشبرد برنامه های ملی خود آگاه هستند. در سپتامبر 2017، ولادیمیر پوتین به گروهی از دانشجویان گفت: «هر کسی که رهبر شود [in AI] حاکم جهان خواهد شد. «در حالی که ایالات متحده در حال حاضر پیشرو در هوش مصنوعی است، شرکت‌های فناوری چینی به سرعت در حال پیشرفت هستند و ممکن است در توسعه و اجرای حوزه‌های تحقیقاتی خاص، مانند نرم‌افزار تشخیص چهره، بهتر عمل کنند.

تسلط قدرت های بزرگ بر هوش مصنوعی نابرابری های ساختاری موجود را تشدید می کند و به اشکال جدید نابرابری کمک می کند. کشورهایی که دیگر به اینترنت دسترسی ندارند و به سخاوت کشورهای ثروتمندتر وابسته هستند، بسیار عقب خواهند بود. اتوماسیون مبتنی بر هوش مصنوعی الگوهای اشتغال را به گونه‌ای تغییر خواهد داد که به نفع برخی از اقتصادهای ملی نسبت به سایرین باشد.

دوم، هوش مصنوعی مجموعه جدیدی از بازیگران ژئوپلیتیکی را در خارج از دولت‌ها فعال می‌کند. به یک معنا، شرکت های دیجیتال پیشرو در حال حاضر قدرتمندتر از بسیاری از کشورها هستند. همانطور که امانوئل مکرون، رئیس جمهور فرانسه در مارس 2019 پرسید: “چه کسی می تواند ادعا کند که به خودی خود بر غول های دیجیتالی حاکم است؟”

تهاجم اخیر به اوکراین مثالی را ارائه می دهد. دولت های ملی با اعمال تحریم های اقتصادی علیه فدراسیون روسیه واکنش نشان داده اند. اما شاید حداقل به همان اندازه تصمیمات شرکت هایی مانند آی بی ام، دل، متا، اپل و آلفابت برای توقف فعالیت در کشور تاثیرگذار بوده است.

به همین ترتیب، هنگامی که اوکراین می ترسید که تهاجم دسترسی این کشور به اینترنت را مختل کند، نه از یک دولت دوست، بلکه از ایلان ماسک، کارآفرین فناوری، درخواست کمک کرد. ماسک با روشن کردن سرویس اینترنت ماهواره‌ای استارلینک خود در اوکراین و تحویل گیرنده‌ها پاسخ داد و به این کشور اجازه داد به ارتباط خود ادامه دهد.

انحصارطلبی دیجیتال، با دسترسی به پایگاه های داده بزرگ و در حال رشد که به عنوان سوخت برای الگوریتم های یادگیری ماشین عمل می کنند، به سرعت در حال تبدیل شدن است. هوش مصنوعی انحصار چندجانبه. شرکت‌های پیشرو در ایالات متحده و چین با توجه به ثروت عظیم خود می‌توانند برنامه‌های کاربردی جدیدی توسعه دهند یا شرکت‌های کوچک‌تری را که ابزارهای امیدوارکننده اختراع می‌کنند، خریداری کنند. سیستم‌های یادگیری ماشین همچنین می‌توانند برای انحصارطلبی هوش مصنوعی در دور زدن مقررات ملی مفید باشند.

سوم، هوش مصنوعی فرصت هایی را برای اشکال جدید درگیری باز می کند. آنها از تأثیرگذاری بر افکار عمومی و نتایج انتخابات در کشورهای دیگر از طریق رسانه های جعلی و پست های رسانه های اجتماعی دستکاری شده تا مداخله در زیرساخت های حیاتی دیگر کشورها – مانند برق، حمل و نقل یا ارتباطات را شامل می شوند.

مدیریت چنین اشکالی از درگیری دشوار خواهد بود و منجر به بازنگری کامل در مورد ابزارهای کنترل تسلیحاتی می شود که برای مبارزه با سلاح های قهری مناسب نیستند. مذاکرات کنونی کنترل تسلیحات مستلزم آن است که دشمنان به وضوح توانایی‌های طرف مقابل و ضرورت نظامی خود را درک کنند، اما در حالی که برای مثال بمب‌های هسته‌ای در توسعه و کاربرد محدود هستند، تقریباً همه چیز با هوش مصنوعی امکان‌پذیر است، زیرا قابلیت‌ها را می‌توان در سریع‌ترین زمان ممکن توسعه داد. و مات

بدون معاهدات قابل اجرا که استقرار آنها را محدود کند، سیستم‌های تسلیحاتی خودمختار که از قطعات پیش ساخته جمع‌آوری شده‌اند در نهایت در اختیار تروریست‌ها و دیگر بازیگران غیردولتی قرار خواهند گرفت. همچنین احتمال زیادی وجود دارد که سیستم‌های تسلیحاتی خودمختار ناشناخته به طور ناخواسته شروع به درگیری کنند یا خصومت‌های موجود را تشدید کنند.

تنها راه برای کاهش خطرات ژئوپلیتیکی هوش مصنوعی و ارائه نظارت منعطف و جامعی که به آن نیاز دارد، از طریق گفتگوی باز در مورد مزایا، محدودیت ها و پیچیدگی آن است. G20 یک مکان بالقوه است یا یک مکانیسم جدید حکمرانی بین المللی می تواند با مشارکت بخش خصوصی و سایر سهامداران کلیدی راه اندازی شود.

به طور گسترده پذیرفته شده است که امنیت بین المللی، رونق اقتصادی، خیر عمومی و رفاه بشر به مدیریت تکثیر سیستم های تسلیحاتی مرگبار و تغییرات آب و هوایی بستگی دارد. ما معتقدیم که آنها به طور فزاینده ای حداقل به همان اندازه به توانایی جمعی ما برای شکل دادن به توسعه و مسیر هوش مصنوعی و سایر فناوری های نوظهور وابسته خواهند بود.
از پروژه امور جهانی TechCrunch بیشتر بخوانید