گزارش می‌گوید شرکت‌های فناوری در «پیاده‌روی» بر اساس هوش مصنوعی اخلاقی شکست می‌خورند

0

محققان دانشگاه استنفورد می گویند که متخصصان اخلاق هوش مصنوعی از کمبود حمایت نهادی در شرکت های خود گزارش می دهند.

شرکت‌های فناوری که قول حمایت از توسعه اخلاقی هوش مصنوعی (AI) را داده‌اند، به دلیل ایمنی به تعهدات خود عمل نمی‌کنند. بر اساس گزارش جدیدی که توسط محققان دانشگاه استنفورد انجام شده است، یک صندلی عقب برای معیارهای عملکرد و راه اندازی محصول است.

موسسه هوش مصنوعی انسان محور استنفورد در این گزارش گفت: علیرغم انتشار اصول هوش مصنوعی و به کارگیری دانشمندان و مهندسان اجتماعی برای انجام تحقیقات و توسعه راه حل های فنی مرتبط با اخلاق هوش مصنوعی، بسیاری از شرکت های خصوصی هنوز اتخاذ پادمان های اخلاقی را در اولویت قرار نداده اند. روز پنجشنبه منتشر شد.

محققان سانا جی علی، آنجل کریستین، اندرو اسمارت و ریتا کاتیلا گفتند: «شرکت‌ها اغلب درباره اخلاق هوش مصنوعی صحبت می‌کنند، اما به ندرت با تأمین منابع کافی و توانمندسازی تیم‌هایی که روی هوش مصنوعی مسئول کار می‌کنند، قدم می‌زنند». گزارشی با عنوان قدم زدن در مسیر اخلاق هوش مصنوعی در شرکت های فناوری.

این گزارش با تکیه بر تجربیات ۲۵ “متخصص اخلاق هوش مصنوعی” گفت که کارگرانی که در ترویج اخلاق هوش مصنوعی نقش دارند از عدم حمایت سازمانی و محروم شدن از سایر تیم‌ها در سازمان‌های بزرگ با وجود وعده‌های خلاف شکایت دارند.

در این گزارش آمده است که کارمندان فرهنگ بی‌تفاوتی یا خصومت را به دلیل مدیران محصول گزارش کردند که کارشان را برای بهره‌وری، درآمد یا جدول زمانی راه‌اندازی محصول شرکت مضر می‌دانند.

یکی از افراد شرکت‌کننده در این گزارش گفت: «صدای زیاد در مورد ترمز کردن بیشتر در [توسعه هوش مصنوعی] کار خطرناکی بود. “در این فرآیند تعبیه نشده بود.”

این گزارش نام شرکت‌هایی را که کارکنان مورد بررسی در آن کار می‌کردند، ذکر نکرد.

دولت‌ها و دانشگاهیان نگرانی‌های خود را در مورد سرعت توسعه هوش مصنوعی، با سؤالات اخلاقی در مورد همه چیز از استفاده از داده‌های خصوصی گرفته تا تبعیض نژادی و نقض حق چاپ ابراز کرده‌اند.

این نگرانی‌ها از زمان انتشار ChatGPT توسط OpenAI در سال گذشته و توسعه متعاقب آن پلتفرم‌های رقیب مانند Google’s Gemini، بیشتر شده است.

کارمندان به محققان دانشگاه استنفورد گفتند که مسائل اخلاقی اغلب فقط در اواخر بازی مورد توجه قرار می‌گیرند، که تنظیمات را برای برنامه‌ها یا نرم‌افزارهای جدید دشوار می‌کند و ملاحظات اخلاقی اغلب با سازمان‌دهی مجدد تیم‌ها مختل می‌شوند.

>

این گزارش می‌گوید: «سنجش‌های مربوط به تعامل یا عملکرد مدل‌های هوش مصنوعی به قدری اولویت دارند که توصیه‌های مربوط به اخلاق که ممکن است بر این معیارها تأثیر منفی بگذارد، به شواهد کمی انکارناپذیر نیاز دارند.

“با این حال معیارهای کمی اخلاق یا انصاف به سختی به دست می‌آیند و تعریف آنها چالش برانگیز است، زیرا زیرساخت‌های داده موجود شرکت‌ها برای چنین معیارهایی طراحی نشده‌اند.”

ارسال نظر

آدرس ایمیل شما منتشر نخواهد شد.