

امروزه سازمان های دولتی و شرکت های مختلف به سرعت از برنامه های مختلف هوش مصنوعی برای خودکارسازی عملیات، افزایش بهره وری، احراز هویت، پردازش تصویر، پلیس پیشگیری و غیره استفاده می کنند.
مانند سایر فناوریهای دیجیتال، هوش مصنوعی دارای آسیبپذیریهای امنیتی مختلفی در زمینههای حریم خصوصی، سوگیری، نابرابری، مسائل امنیتی و سایر زمینهها است و نگرانیهایی را در مورد این مسائل ایجاد کرده است. موسسه ملی استاندارد و فناوری (NIST) در حال طراحی یک پلت فرم داوطلبانه به نام چارچوب مدیریت ریسک هوش مصنوعی (AI RMF) برای مدیریت موثر ریسک است. مربوط به هوش مصنوعی است. هدف از طراحی و ارائه چنین چارچوبی افزایش توانایی رعایت ملاحظات قابلیت اطمینان در طراحی، توسعه، استفاده و ارزیابی محصولات، خدمات و سیستم های هوش مصنوعی است.
پیش نویس اولیه این چارچوب بر اساس یک مقاله مفهومی منتشر شده توسط NIST در دسامبر 2021 است. NIST امیدوار است که AI RMF به توضیح تفاوت در خطر ناشی از سیستم های مبتنی بر هوش مصنوعی برای سایر مناطق کمک کند و بسیاری از سهامداران در این زمینه را به ابزارها مجهز کند. آنها باید به این خطرات رسیدگی کنند. NIST اظهار داشت که استفاده از این چارچوب برای شناسایی ملاحظات قانونی، از جمله قوانین موجود، مقررات و سایر دستورالعمل های اجباری امکان پذیر است.
اگرچه هوش مصنوعی در معرض خطراتی است که سایر چارچوب های NIST تحت پوشش قرار می دهند، برخی از نگرانی ها و حذفیات فقط به هوش مصنوعی مربوط می شود. هدف AI RMF رسیدگی به این شکاف ها است.
گروه های تاثیرگذار در فناوری ها و ویژگی های فنی هوش مصنوعی
NIST چندین گروه قوی از جمله سهامداران، آزمایش کنندگان، سهامداران خارجی و عموم مردم را به عنوان مخاطبان چارچوب هدف قرار می دهد. این مؤسسه تعدادی ویژگی از جمله مشخصات فنی، ویژگی های فنی-اجتماعی و اصول راهنما را در قالب سه دسته مختلف تعریف کرده است. این ویژگی ها باید در رویکردهای رایج برای شناسایی و مدیریت خطرات مرتبط با سیستم های هوش مصنوعی در نظر گرفته شوند.
مشخصات فنی عواملی هستند که تحت کنترل مستقیم توسعه دهندگان و طراحان سیستم های هوش مصنوعی هستند. ارزیابی این ویژگی ها با استفاده از معیارهای ارزیابی استاندارد مانند دقت، قابلیت اطمینان و پایداری امکان پذیر است. ویژگیهای اجتماعی و فنی نیز شامل استفاده و درمان هوش مصنوعی در زمینههای فردی، گروهی و اجتماعی مانند توصیفی بودن، حریم خصوصی، ایمنی و سوگیری است. در نهایت، در شرایط AI RMF، اصول راهنما شامل ارزشها و هنجارهای اجتماعی گستردهتر است که اولویتهای اجتماعی مانند انصاف، مسئولیتپذیری و شفافیت را منعکس میکند.
مانند سایر چارچوبهای NIST، هسته AI AI RMF از سه عنصر تشکیل شده است که فعالیتهای مدیریت ریسک هوش مصنوعی را سازماندهی میکند. این عناصر عبارتند از: توابع، دسته های اصلی و زیر مجموعه ها. فرصت ها برای نقشه برداری، ارزیابی، مدیریت و مدیریت ریسک های هوش مصنوعی سازماندهی شده اند. AI RMF زمینه لازم را برای برنامه های خاص از طریق پروفایل ها فراهم می کند. البته این امر تا تهیه پروژه جدید به همراه راهنمایی عملی به تعویق افتاد.
پس از راهاندازی چارچوب پیشنویس، NIST تمامی جنبههای AI RMF را طی یک کارگاه آموزشی سه روزه، از جمله بررسی عمیق سوگیریهای مضر در فناوریهای هوش مصنوعی، توضیح داد.
خطرات هوش مصنوعی را با نگاه کردن به زمینه ترسیم کنید
رید غنی از دانشگاه کارنگی ملون در این سمینار گفت: “ما هنوز باید شرایط، برنامه و سناریوی نصب را در نظر بگیریم.” من معتقدم که در حالت ایده آل همه اینها باید هنگام طراحی سیستم انجام شود.”
مرلین زیگموند لوک، معاون رئیس جمهور ایالات متحده در طرح های بیمه سلامت به حضار گفت: با توجه به شرایط و ساختارهای مختلف، خطر برای سازمان ها و افراد نیز متفاوت خواهد بود. به نظر من شما باید از همان ابتدا و قبل از شروع عملیات تمام این شرایط را در نظر بگیرید و خطرات را ارزیابی کنید. سپس کار اصلی را شروع کنید و پارامترهای مختلف را مشخص کنید.
پیاده سازی تکنیک های جدید برای ارزیابی فعالیت های هوش مصنوعی
با توجه به پیچیدگی مسائل اخلاقی، سیاسی و اجتماعی و همچنین سیستم های هوش مصنوعی، ارزیابی فعالیت های مرتبط با هوش مصنوعی به رشد و تکامل خود ادامه می دهد. دیوید دانکس، یکی از فعالان دانشگاه کالیفرنیا در سن دیگو گفت: «خطرات امنیتی تهدیدی برای ارزشهای انسانی و سازمانها هستند. بنابراین، تعیین رسمی ارزش ها کار ساده ای نبوده است و حتی در حال حاضر نیز بیشتر برآوردها به منابع انسانی سپرده شده است. معنا و مفهوم سوگیری در شرایط خاص و شناسایی ارزش های مرتبط از جمله مواردی است که باید توسط مردم سنجیده شود.
جک کلارک، یکی از بنیانگذاران Anthropic، یک شرکت متخصص در تحقیقات و ایمنی هوش مصنوعی، می گوید: ظهور هوش مصنوعی منجر به نیاز به ایجاد استانداردها و معیارهای جدیدی شده است که به طور ایده آل در خود فناوری هوش مصنوعی ساخته می شود. کلارک می گوید: «یکی از چالش های هوش مصنوعی مدرن این است که علاوه بر توسعه خود فناوری، ما نیاز به طراحی تکنیک های ارزیابی جدید داریم.
داده های آموزشی را ارتقا دهید جهت مدیریت ریسک هوش مصنوعی
فرآیندهای عملکرد مدیریت AI RMF خطرات را برای به حداکثر رساندن منافع و به حداقل رساندن پیامدهای نامطلوب شناسایی و ارزیابی می کند، اما مسائل کیفیت می تواند مانعی برای مدیریت ریسک هوش مصنوعی باشد. Jiahao Chen، مدیر ارشد فناوری در Parity AI گفت: «در دسترس بودن دادههایی که ما برای آموزش مدل داریم، لزوماً مانند چند سال پیش به دنیای واقعی گسترش نمییابد. باید دید که آیا داده های آموزشی به خوبی وضعیت فعلی جهان ما را منعکس می کند یا خیر.
گریس یی، مدیر نوآوری و نوآوری ادوبی می گوید: «امروزه، حتی بهترین فناوری دنیا برای ایجاد تجربیات دیجیتال کافی نیست. ما باید مطمئن شویم که فناوری ما به گونه ای طراحی شده است که تمام زمینه های زندگی را به طور کامل پوشش دهد و به مشتریان، جوامع و ارزش ها احترام بگذارد. به طور خاص، ما سیستمها و فرآیندهایی را طراحی میکنیم که تعیین میکنند آیا هوش مصنوعی ما اثرات مضری دارد یا خیر.
وینسنت ساوترلند از دانشکده حقوق دانشگاه نیویورک به استفاده از هوش مصنوعی به عنوان ابزاری برای پیش بینی جرم اشاره می کند و می گوید: این اتفاق می افتد. «البته تا همین اواخر، تشخیص داده نمی شد که داده های استفاده شده توسط این ابزارها و نحوه عملکرد آنها می تواند به نابرابری نژادی و تشدید آسیب جرم کمک کند.
قانون هوش مصنوعی
سازمان ها معمولاً توجه زیادی به سیاست های حاکم بر هوش مصنوعی نمی کنند. پاتریک هال، محقق در bnh.ai، گفت: «بهجز شرکتهای بزرگ و تعداد محدودی از مناطق تحت نظارت دقیق قانونی، سایر حوزهها بدون راهنمایی رسمی از هوش مصنوعی استفاده میکنند، بنابراین سازمانها باید با مسائل حاکمیتی برخورد کنند».
ناتاشا کرامپتون، مدیر عامل هوش مصنوعی مایکروسافت می گوید: «وقتی رویکرد شما به مدیریت بیش از حد غیرمتمرکز باشد، احتمال خطا افزایش می یابد. تیمها در چنین شرایطی باید مدلهای هوش مصنوعی را در محیط تولید بگنجانند و از فرآیندها و ساختارهای خود استفاده کنند که هماهنگی زیادی بین آنها وجود ندارد.
آگوس سوجیانتو، معاون ارشد و مدیر ریسک سازمانی ولز فارگو نیز بر مدیریت ریسک هوش مصنوعی در سطح بالا تاکید کرد و گفت: اگر مدیر یا مدیر عامل هوش مصنوعی حمایت لازم را نداشته باشد، موفق نخواهد شد.
Tecent Tung از Accenture همچنین تأکید می کند که همه شرکت ها باید بر هوش مصنوعی تمرکز کنند. به گفته وی: «حدود نیمی از 2000 شرکت جهانی در مورد هوش مصنوعی گزارش می دهند. همه مشاغل باید از این موضوع آگاه باشند.
نسخه نهایی AI RMF، مانند سایر چارچوب های مدیریت ریسک طراحی شده توسط NIST، از جمله چارچوب امنیت سایبری، می تواند پیامدهای گسترده ای برای سازمان های خصوصی و عمومی داشته باشد.
برای مطالعه سایر مقالات امنیت سایبری اینجا را کلیک کنید.
منبع: csoonline