به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از انگجت، با توجه به اینکه استفاده از هوش مصنوعی برای تولید انواع تسلیحات می تواند به ابداع سلاح های مرگباری منجر شود که خارج از کنترل انسان دست به کشتارهای مرگبار و بی ضابطه بزنند، برخی کشورهای جهان در تلاش هستند تا قوانینی را برای استفاده اخلاقی از هوش مصنوعی در صحنه های نبرد وضع کنند و پنتاگون هم در این زمینه وارد عمل شد.
در همین راستا وزارت دفاع آمریکا، پیش نویس دستورالعملی را با موضوع اخلاق هوش مصنوعی به نگارش درآورده که کنترل و مدیریت این فناوری نوظهور را تسهیل می کند. در این دستورالعمل به مسؤولیتهای انسان ها برای کنترل هوش مصنوعی اشاره شده و پیشنهادهایی برای مهار آن در حین حفظ کارآیی و قابلیت های خاص هوش مصنوعی ارائه شده است.
در بخشی از این پیش نویس تصریح شده الگوریتم های هوش مصنوعی باید به گونه ای تدوین شوند که از رفتار متعصبانه ناخواسته محصولات مبتنی بر هوش مصنوعی جلوگیری شود و جلوی نژادپرستی یا رفتار جنسیت زده آنها گرفته شود، همچنین نباید محصولات هوش مصنوعی به گونه ای طراحی شوند که با مردم مختلف به دلایل گوناگون ناعادلانه رفتار شود، همچنین ارتش آمریکا باید تضمین کند که علاوه بر کدهای برنامه نویسی، منابع داده آن هم بی طرف و بدون غرض ورزی باقی بمانند تا از سلاح های هوش مصنوعی برای کشتار طیف ها و گروه هایی خاص از غیرنظامیان سواستفاده نشود.
در ادامه این پیش نویس چنین آمده که هوش مصنوعی باید به گونه ای قابل مدیریت و کنترل طراحی شود تا اگر از آن برای وارد آوردن آسیب های غیرضروری سواستفاده شد، امکان متوقف کردن این روند وجود داشته باشد. همچنین باید امکان کنترل محصولات هوش مصنوعی توسط اپراتور انسانی و با استفاده از ابزار یا سوئیچ خاص وجود داشته باشد.
انتهای پیام/