منو سایت

NIST از AI RMF برای از بین بردن خطرات هوش مصنوعی استفاده می کند

 تاریخ انتشار :
/
  اخبار استارتاپ
Log4Shell برای هک سرورهای VMWare استفاده می شود

NIST از AI RMF برای از بین بردن خطرات هوش مصنوعی استفاده می کند

امروزه سازمان های دولتی و شرکت های مختلف به سرعت از برنامه های مختلف هوش مصنوعی برای خودکارسازی عملیات، افزایش بهره وری، احراز هویت، پردازش تصویر، پلیس پیشگیری و غیره استفاده می کنند.

مانند سایر فناوری‌های دیجیتال، هوش مصنوعی دارای آسیب‌پذیری‌های امنیتی مختلفی در زمینه‌های حریم خصوصی، سوگیری، نابرابری، مسائل امنیتی و سایر زمینه‌ها است و نگرانی‌هایی را در مورد این مسائل ایجاد کرده است. موسسه ملی استاندارد و فناوری (NIST) در حال طراحی یک پلت فرم داوطلبانه به نام چارچوب مدیریت ریسک هوش مصنوعی (AI RMF) برای مدیریت موثر ریسک است. مربوط به هوش مصنوعی است. هدف از طراحی و ارائه چنین چارچوبی افزایش توانایی رعایت ملاحظات قابلیت اطمینان در طراحی، توسعه، استفاده و ارزیابی محصولات، خدمات و سیستم های هوش مصنوعی است.

پیش نویس اولیه این چارچوب بر اساس یک مقاله مفهومی منتشر شده توسط NIST در دسامبر 2021 است. NIST امیدوار است که AI RMF به توضیح تفاوت در خطر ناشی از سیستم های مبتنی بر هوش مصنوعی برای سایر مناطق کمک کند و بسیاری از سهامداران در این زمینه را به ابزارها مجهز کند. آنها باید به این خطرات رسیدگی کنند. NIST اظهار داشت که استفاده از این چارچوب برای شناسایی ملاحظات قانونی، از جمله قوانین موجود، مقررات و سایر دستورالعمل های اجباری امکان پذیر است.

اگرچه هوش مصنوعی در معرض خطراتی است که سایر چارچوب های NIST تحت پوشش قرار می دهند، برخی از نگرانی ها و حذفیات فقط به هوش مصنوعی مربوط می شود. هدف AI RMF رسیدگی به این شکاف ها است.

گروه های تاثیرگذار در فناوری ها و ویژگی های فنی هوش مصنوعی

NIST چندین گروه قوی از جمله سهامداران، آزمایش کنندگان، سهامداران خارجی و عموم مردم را به عنوان مخاطبان چارچوب هدف قرار می دهد. این مؤسسه تعدادی ویژگی از جمله مشخصات فنی، ویژگی های فنی-اجتماعی و اصول راهنما را در قالب سه دسته مختلف تعریف کرده است. این ویژگی ها باید در رویکردهای رایج برای شناسایی و مدیریت خطرات مرتبط با سیستم های هوش مصنوعی در نظر گرفته شوند.

مشخصات فنی عواملی هستند که تحت کنترل مستقیم توسعه دهندگان و طراحان سیستم های هوش مصنوعی هستند. ارزیابی این ویژگی ها با استفاده از معیارهای ارزیابی استاندارد مانند دقت، قابلیت اطمینان و پایداری امکان پذیر است. ویژگی‌های اجتماعی و فنی نیز شامل استفاده و درمان هوش مصنوعی در زمینه‌های فردی، گروهی و اجتماعی مانند توصیفی بودن، حریم خصوصی، ایمنی و سوگیری است. در نهایت، در شرایط AI RMF، اصول راهنما شامل ارزش‌ها و هنجارهای اجتماعی گسترده‌تر است که اولویت‌های اجتماعی مانند انصاف، مسئولیت‌پذیری و شفافیت را منعکس می‌کند.

مانند سایر چارچوب‌های NIST، هسته AI AI RMF از سه عنصر تشکیل شده است که فعالیت‌های مدیریت ریسک هوش مصنوعی را سازماندهی می‌کند. این عناصر عبارتند از: توابع، دسته های اصلی و زیر مجموعه ها. فرصت ها برای نقشه برداری، ارزیابی، مدیریت و مدیریت ریسک های هوش مصنوعی سازماندهی شده اند. AI RMF زمینه لازم را برای برنامه های خاص از طریق پروفایل ها فراهم می کند. البته این امر تا تهیه پروژه جدید به همراه راهنمایی عملی به تعویق افتاد.

پس از راه‌اندازی چارچوب پیش‌نویس، NIST تمامی جنبه‌های AI RMF را طی یک کارگاه آموزشی سه روزه، از جمله بررسی عمیق سوگیری‌های مضر در فناوری‌های هوش مصنوعی، توضیح داد.

گروه های تاثیرگذار در فناوری ها و ویژگی های فنی هوش مصنوعی

خطرات هوش مصنوعی را با نگاه کردن به زمینه ترسیم کنید

رید غنی از دانشگاه کارنگی ملون در این سمینار گفت: “ما هنوز باید شرایط، برنامه و سناریوی نصب را در نظر بگیریم.” من معتقدم که در حالت ایده آل همه اینها باید هنگام طراحی سیستم انجام شود.”

مرلین زیگموند لوک، معاون رئیس جمهور ایالات متحده در طرح های بیمه سلامت به حضار گفت: با توجه به شرایط و ساختارهای مختلف، خطر برای سازمان ها و افراد نیز متفاوت خواهد بود. به نظر من شما باید از همان ابتدا و قبل از شروع عملیات تمام این شرایط را در نظر بگیرید و خطرات را ارزیابی کنید. سپس کار اصلی را شروع کنید و پارامترهای مختلف را مشخص کنید.

پیاده سازی تکنیک های جدید برای ارزیابی فعالیت های هوش مصنوعی

با توجه به پیچیدگی مسائل اخلاقی، سیاسی و اجتماعی و همچنین سیستم های هوش مصنوعی، ارزیابی فعالیت های مرتبط با هوش مصنوعی به رشد و تکامل خود ادامه می دهد. دیوید دانکس، یکی از فعالان دانشگاه کالیفرنیا در سن دیگو گفت: «خطرات امنیتی تهدیدی برای ارزش‌های انسانی و سازمان‌ها هستند. بنابراین، تعیین رسمی ارزش ها کار ساده ای نبوده است و حتی در حال حاضر نیز بیشتر برآوردها به منابع انسانی سپرده شده است. معنا و مفهوم سوگیری در شرایط خاص و شناسایی ارزش های مرتبط از جمله مواردی است که باید توسط مردم سنجیده شود.

جک کلارک، یکی از بنیانگذاران Anthropic، یک شرکت متخصص در تحقیقات و ایمنی هوش مصنوعی، می گوید: ظهور هوش مصنوعی منجر به نیاز به ایجاد استانداردها و معیارهای جدیدی شده است که به طور ایده آل در خود فناوری هوش مصنوعی ساخته می شود. کلارک می گوید: «یکی از چالش های هوش مصنوعی مدرن این است که علاوه بر توسعه خود فناوری، ما نیاز به طراحی تکنیک های ارزیابی جدید داریم.

داده های آموزشی را ارتقا دهید جهت مدیریت ریسک هوش مصنوعی

فرآیندهای عملکرد مدیریت AI RMF خطرات را برای به حداکثر رساندن منافع و به حداقل رساندن پیامدهای نامطلوب شناسایی و ارزیابی می کند، اما مسائل کیفیت می تواند مانعی برای مدیریت ریسک هوش مصنوعی باشد. Jiahao Chen، مدیر ارشد فناوری در Parity AI گفت: «در دسترس بودن داده‌هایی که ما برای آموزش مدل داریم، لزوماً مانند چند سال پیش به دنیای واقعی گسترش نمی‌یابد. باید دید که آیا داده های آموزشی به خوبی وضعیت فعلی جهان ما را منعکس می کند یا خیر.

گریس یی، مدیر نوآوری و نوآوری ادوبی می گوید: «امروزه، حتی بهترین فناوری دنیا برای ایجاد تجربیات دیجیتال کافی نیست. ما باید مطمئن شویم که فناوری ما به گونه ای طراحی شده است که تمام زمینه های زندگی را به طور کامل پوشش دهد و به مشتریان، جوامع و ارزش ها احترام بگذارد. به طور خاص، ما سیستم‌ها و فرآیندهایی را طراحی می‌کنیم که تعیین می‌کنند آیا هوش مصنوعی ما اثرات مضری دارد یا خیر.

وینسنت ساوترلند از دانشکده حقوق دانشگاه نیویورک به استفاده از هوش مصنوعی به عنوان ابزاری برای پیش بینی جرم اشاره می کند و می گوید: این اتفاق می افتد. «البته تا همین اواخر، تشخیص داده نمی شد که داده های استفاده شده توسط این ابزارها و نحوه عملکرد آنها می تواند به نابرابری نژادی و تشدید آسیب جرم کمک کند.

برای مدیریت ریسک هوش مصنوعی، داده های آموزشی را ارتقا دهید

قانون هوش مصنوعی

سازمان ها معمولاً توجه زیادی به سیاست های حاکم بر هوش مصنوعی نمی کنند. پاتریک هال، محقق در bnh.ai، گفت: «به‌جز شرکت‌های بزرگ و تعداد محدودی از مناطق تحت نظارت دقیق قانونی، سایر حوزه‌ها بدون راهنمایی رسمی از هوش مصنوعی استفاده می‌کنند، بنابراین سازمان‌ها باید با مسائل حاکمیتی برخورد کنند».

ناتاشا کرامپتون، مدیر عامل هوش مصنوعی مایکروسافت می گوید: «وقتی رویکرد شما به مدیریت بیش از حد غیرمتمرکز باشد، احتمال خطا افزایش می یابد. تیم‌ها در چنین شرایطی باید مدل‌های هوش مصنوعی را در محیط تولید بگنجانند و از فرآیندها و ساختارهای خود استفاده کنند که هماهنگی زیادی بین آنها وجود ندارد.

آگوس سوجیانتو، معاون ارشد و مدیر ریسک سازمانی ولز فارگو نیز بر مدیریت ریسک هوش مصنوعی در سطح بالا تاکید کرد و گفت: اگر مدیر یا مدیر عامل هوش مصنوعی حمایت لازم را نداشته باشد، موفق نخواهد شد.

Tecent Tung از Accenture همچنین تأکید می کند که همه شرکت ها باید بر هوش مصنوعی تمرکز کنند. به گفته وی: «حدود نیمی از 2000 شرکت جهانی در مورد هوش مصنوعی گزارش می دهند. همه مشاغل باید از این موضوع آگاه باشند.

نسخه نهایی AI RMF، مانند سایر چارچوب های مدیریت ریسک طراحی شده توسط NIST، از جمله چارچوب امنیت سایبری، می تواند پیامدهای گسترده ای برای سازمان های خصوصی و عمومی داشته باشد.

برای مطالعه سایر مقالات امنیت سایبری اینجا را کلیک کنید.

منبع: csoonline