گزارش میگوید شرکتهای فناوری در «پیادهروی» بر اساس هوش مصنوعی اخلاقی شکست میخورند
محققان دانشگاه استنفورد می گویند که متخصصان اخلاق هوش مصنوعی از کمبود حمایت نهادی در شرکت های خود گزارش می دهند.
شرکتهای فناوری که قول حمایت از توسعه اخلاقی هوش مصنوعی (AI) را دادهاند، به دلیل ایمنی به تعهدات خود عمل نمیکنند. بر اساس گزارش جدیدی که توسط محققان دانشگاه استنفورد انجام شده است، یک صندلی عقب برای معیارهای عملکرد و راه اندازی محصول است.
موسسه هوش مصنوعی انسان محور استنفورد در این گزارش گفت: علیرغم انتشار اصول هوش مصنوعی و به کارگیری دانشمندان و مهندسان اجتماعی برای انجام تحقیقات و توسعه راه حل های فنی مرتبط با اخلاق هوش مصنوعی، بسیاری از شرکت های خصوصی هنوز اتخاذ پادمان های اخلاقی را در اولویت قرار نداده اند. روز پنجشنبه منتشر شد.
محققان سانا جی علی، آنجل کریستین، اندرو اسمارت و ریتا کاتیلا گفتند: «شرکتها اغلب درباره اخلاق هوش مصنوعی صحبت میکنند، اما به ندرت با تأمین منابع کافی و توانمندسازی تیمهایی که روی هوش مصنوعی مسئول کار میکنند، قدم میزنند». گزارشی با عنوان قدم زدن در مسیر اخلاق هوش مصنوعی در شرکت های فناوری.
این گزارش با تکیه بر تجربیات ۲۵ “متخصص اخلاق هوش مصنوعی” گفت که کارگرانی که در ترویج اخلاق هوش مصنوعی نقش دارند از عدم حمایت سازمانی و محروم شدن از سایر تیمها در سازمانهای بزرگ با وجود وعدههای خلاف شکایت دارند.
در این گزارش آمده است که کارمندان فرهنگ بیتفاوتی یا خصومت را به دلیل مدیران محصول گزارش کردند که کارشان را برای بهرهوری، درآمد یا جدول زمانی راهاندازی محصول شرکت مضر میدانند.
یکی از افراد شرکتکننده در این گزارش گفت: «صدای زیاد در مورد ترمز کردن بیشتر در [توسعه هوش مصنوعی] کار خطرناکی بود. “در این فرآیند تعبیه نشده بود.”
این گزارش نام شرکتهایی را که کارکنان مورد بررسی در آن کار میکردند، ذکر نکرد.
دولتها و دانشگاهیان نگرانیهای خود را در مورد سرعت توسعه هوش مصنوعی، با سؤالات اخلاقی در مورد همه چیز از استفاده از دادههای خصوصی گرفته تا تبعیض نژادی و نقض حق چاپ ابراز کردهاند.
این نگرانیها از زمان انتشار ChatGPT توسط OpenAI در سال گذشته و توسعه متعاقب آن پلتفرمهای رقیب مانند Google’s Gemini، بیشتر شده است.
کارمندان به محققان دانشگاه استنفورد گفتند که مسائل اخلاقی اغلب فقط در اواخر بازی مورد توجه قرار میگیرند، که تنظیمات را برای برنامهها یا نرمافزارهای جدید دشوار میکند و ملاحظات اخلاقی اغلب با سازماندهی مجدد تیمها مختل میشوند.
>
این گزارش میگوید: «سنجشهای مربوط به تعامل یا عملکرد مدلهای هوش مصنوعی به قدری اولویت دارند که توصیههای مربوط به اخلاق که ممکن است بر این معیارها تأثیر منفی بگذارد، به شواهد کمی انکارناپذیر نیاز دارند.
“با این حال معیارهای کمی اخلاق یا انصاف به سختی به دست میآیند و تعریف آنها چالش برانگیز است، زیرا زیرساختهای داده موجود شرکتها برای چنین معیارهایی طراحی نشدهاند.”