پنتاگون برای هوش مصنوعی دستورالعمل اخلاقی منتشر کرد

به گزارش خبرنگاران به نقل از انگجت، هرچند شرکت های فناوری برای ایجاد پس زمینه اخلاقی مناسب درباره کاربردهای هوش مصنوعی با چالش هایی روبرو هستند اما وزارت دفاع آمریکا در این زمینه پیشقدم شده است.

پنتاگون برای هوش مصنوعی دستورالعمل اخلاقی منتشر کرد

هیات نوآوری دفاعی آمریکا به تازگی پیش نویس دستورالعملی اخلاقی هوش مصنوعی در وزارت دفاع را منتشر نموده که هدف آن کنترل فناوری های نوین است. بعضی از این دستورالعمل ها قابل اجرا هستند مانند آنالیز اعتبار فناوری یا آنکه ریشه در سیاست های قدیمی دارند مانند لزوم مسئولیت پذیری انسانی در هر مرحله. اما بقیه موارد دستورالعمل های نوینی در حوزه عمومی و خصوصی هستند.

طبق این پیش نویس سیستم هوش مصنوعی اخلاق مدار باید از تعصب ناخواسته در الگوریتم ها مانند نژاد پرستی جلوگیری کند. گاهی اوقات سیستم های هوش مصنوعی سبب می شوند که با افراد ناعادلانه رفتار گردد. این هیئت از ارتش خواست که اطمینان حاصل کند نه فقط کد ها بلکه منابع اطلاعاتی نیز خنثی هستند.

همچنین در این پیش نویس هیئت پنتاگون خواهان آن شده سیستم هوش مصنوعی قابل کنترل باشد و چنانچه تشخیص دهد که عملکرد آن خسارتی غیرضروری به بار می آورد، خود را متوقف کند یا یک اپراتور انسانی بتواند آن را متوقف کند.

این امر اجازه فراوری اسلحه های تمام اتوماتیک را نمی دهد و احتمال چالش زا شدن هوش مصنوعی را نیز می کاهد. بر این اساس پیش نویس شامل فراخوانی برای خروجی هوش مصنوعی قابل ردیابی است که به مردم اجازه می دهد ببینند چگونه یک سیستم به نتیجه خود رسیده است.

منبع: خبرگزاری مهر

به "پنتاگون برای هوش مصنوعی دستورالعمل اخلاقی منتشر کرد" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "پنتاگون برای هوش مصنوعی دستورالعمل اخلاقی منتشر کرد"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید