قوانین، ممنوعیت مدارس و درام سام آلتمن: تحولات بزرگ در هوش مصنوعی در سال ۲۰۲۳

0

صنعت هوش مصنوعی (AI) در سال ۲۰۲۳ با موفقیت آغاز شد، زیرا مدارس و دانشگاه ها با دانش آموزانی که از ChatGPT OpenAI برای کمک به آنها استفاده می کردند، دست و پنجه نرم می کردند. با تکالیف و انشا نویسی.

کمتر از یک هفته از سال می گذرد، مدارس دولتی شهر نیویورک ChatGPT را ممنوع کردند – که هفته ها قبل با سر و صدای زیادی منتشر شد – حرکتی که زمینه را برای بسیاری از بحث ها در مورد هوش مصنوعی مولد در سال ۲۰۲۳ فراهم می کند.

هنگامی که سروصدا پیرامون ChatGPT تحت حمایت مایکروسافت و رقبایی مانند Bard AI Google، Ernie Chatbot Baidu و LLaMA از Meta افزایش یافت، سوالاتی در مورد نحوه مدیریت یک فناوری جدید قدرتمند که یک شبه در دسترس عموم قرار گرفته بود نیز افزایش یافت.

در حالی که تصاویر، موسیقی، ویدیوها و کدهای رایانه‌ای ایجاد شده توسط هوش مصنوعی ایجاد شده توسط پلتفرم‌هایی مانند Stability AI’s Stable Diffusion یا OpenAI’s DALL-E فرصت‌های جدید هیجان‌انگیزی را ایجاد می‌کنند، آنها همچنین نگرانی‌هایی را در مورد اطلاعات نادرست، آزار و اذیت هدفمند و نقض حق نسخه‌برداری دامن می‌زنند.

در ماه مارس، گروهی متشکل از بیش از ۱۰۰۰ امضاکننده، از جمله استیو وزنیاک، بنیانگذار اپل و ایلان ماسک، کارآفرین میلیاردر فناوری، خواستار توقف توسعه هوش مصنوعی پیشرفته تر با توجه به “خطرات عمیق آن برای جامعه و بشریت” شدند. “

در حالی که مکثی اتفاق نیفتاد، دولت‌ها و مقامات نظارتی شروع به وضع قوانین و مقررات جدید کردند تا نرده‌هایی را برای توسعه و استفاده از هوش مصنوعی تعیین کنند.

در حالی که بسیاری از مسائل پیرامون هوش مصنوعی تا سال جدید حل نشده باقی می‌مانند، احتمالاً از سال ۲۰۲۳ به عنوان نقطه عطف مهمی در تاریخ این حوزه یاد می‌شود.

درام در OpenAI

بعد از اینکه ChatGPT در سال ۲۰۲۳ بیش از ۱۰۰ میلیون کاربر جمع کرد، توسعه دهنده OpenAI در ماه نوامبر با اخراج ناگهانی مدیر عامل شرکت سام آلتمن – با ادعای اینکه او “به طور مداوم در ارتباطات خود با هیئت مدیره صادق نبوده”، به سرفصل اخبار بازگشت.< /p>

اگرچه استارت‌آپ سیلیکون ولی در مورد دلایل اخراج آلتمن توضیحی نداد، اما برکناری او به طور گسترده به یک مبارزه ایدئولوژیک در داخل شرکت بین نگرانی‌های ایمنی و تجاری نسبت داده شد.

برکناری آلتمن پنج روز درام بسیار عمومی را به همراه داشت که باعث شد کارکنان OpenAI به طور انبوه تهدید به استعفا کنند و آلتمن برای مدت کوتاهی توسط مایکروسافت استخدام شد، تا زمانی که دوباره به کار خود بازگردد و هیئت مدیره جایگزین شود.

در حالی که OpenAI سعی کرده از این درام خارج شود، سؤالات مطرح شده در طول تحولات برای صنعت به طور کلی صادق است – از جمله اینکه چگونه می توان انگیزه کسب سود و عرضه محصول جدید را در برابر ترس از اینکه هوش مصنوعی می تواند خیلی سریع قدرتمند شود. ، یا به دست اشتباهی بیفتید.

altman
سام آلتمن برای مدت کوتاهی از OpenAI اخراج شد [پرونده: لوسی نیکلسون/رویترز]

در یک نظرسنجی از ۳۰۵ توسعه‌دهنده، سیاست‌گذار و دانشگاهی که توسط مرکز تحقیقات پیو در ماه جولای انجام شد، ۷۹ درصد از پاسخ‌دهندگان گفتند که یا بیشتر نگران آینده هوش مصنوعی هستند تا هیجان‌زده، یا به همان اندازه نگران هستند.

با وجود پتانسیل هوش مصنوعی برای تبدیل رشته‌ها از پزشکی به آموزش و ارتباطات جمعی، پاسخ‌دهندگان در مورد خطراتی مانند نظارت انبوه، آزار و اذیت دولت و پلیس، جابجایی شغلی و انزوای اجتماعی ابراز نگرانی کردند.

شان مک گرگور، بنیانگذار Responsible AI Collaborative، گفت که سال ۲۰۲۳ امیدها و ترس هایی را که در مورد هوش مصنوعی مولد وجود دارد و همچنین شکاف های عمیق فلسفی در این بخش را به نمایش گذاشت.

مک گرگور به الجزیره گفت: “امیدوارترین نوری است که اکنون بر تصمیمات اجتماعی اتخاذ شده توسط فناوران می تابد، اگرچه این نگران کننده است که به نظر می رسد بسیاری از همتایان من در بخش فناوری چنین توجهی را منفی می دانند.” و افزود که هوش مصنوعی باید شکل بگیرد. توسط “نیازهای مردمی که بیشتر تحت تاثیر قرار گرفته اند”.

او گفت: “هنوز تا حد زیادی احساس مثبتی دارم، اما چند دهه چالش برانگیز خواهد بود زیرا ما متوجه می‌شویم که گفتمان در مورد ایمنی هوش مصنوعی نسخه فن‌آوری فن‌آوری چالش‌های قدیمی اجتماعی است.”

قانون گذاری آینده

در ماه دسامبر، سیاست گذاران اتحادیه اروپا در مورد قوانین جامع برای تنظیم توافق کردند. آینده هوش مصنوعی، که یک سال تلاش دولت‌های ملی و نهادهای بین‌المللی مانند سازمان ملل و G7 را در بر می‌گیرد.

نگرانی‌های کلیدی شامل منابع اطلاعاتی است که برای آموزش الگوریتم‌های هوش مصنوعی استفاده می‌شود، که بسیاری از آنها بدون در نظر گرفتن حریم خصوصی، تعصب، دقت یا حق نسخه‌برداری از اینترنت حذف می‌شوند.

پیش‌نویس قانون اتحادیه اروپا از توسعه‌دهندگان می‌خواهد که داده‌های آموزشی و مطابقت با قوانین این بلوک را با محدودیت‌هایی در مورد انواع خاصی از استفاده و مسیری برای شکایات کاربران افشا کنند.

تلاش‌های قانونی مشابهی در ایالات متحده در حال انجام است، جایی که جو بایدن، رئیس‌جمهور جو بایدن در اکتبر فرمان اجرایی گسترده‌ای را در مورد استانداردهای هوش مصنوعی صادر کرد، و بریتانیا، که در نوامبر میزبان اجلاس ایمنی هوش مصنوعی با حضور ۲۷ کشور و ذینفعان صنعت بود.

>

چین همچنین اقداماتی را برای تنظیم آینده هوش مصنوعی انجام داده است و قوانین موقتی را برای توسعه‌دهندگان منتشر می‌کند که آنها را ملزم می‌کند قبل از عرضه محصولات به عموم، تحت یک “ارزیابی امنیتی” قرار گیرند.

دستورالعمل‌ها همچنین داده‌های آموزشی هوش مصنوعی را محدود می‌کنند و محتوایی را که «حمایت از تروریسم»، «تضعیف ثبات اجتماعی»، «سرنگونی نظام سوسیالیستی» یا «آسیب به وجهه کشور» دیده می‌شود، ممنوع می‌کند.

در سطح جهانی، سال ۲۰۲۳ همچنین شاهد اولین توافقنامه موقت بین المللی در مورد ایمنی هوش مصنوعی بود که توسط ۲۰ کشور از جمله ایالات متحده، بریتانیا، آلمان، ایتالیا، لهستان، استونی، جمهوری چک، سنگاپور، نیجریه، اسرائیل و شیلی امضا شد. .

هوش مصنوعی و آینده کار

سوالات در مورد آینده هوش مصنوعی در بخش خصوصی نیز بیداد می کند، جایی که استفاده از آن قبلاً منجر به شکایت های دسته جمعی در ایالات متحده از نویسندگان، هنرمندان و رسانه های خبری مبنی بر نقض حق نسخه برداری شده است.

ترس در مورد جایگزینی شغل توسط هوش مصنوعی عامل محرک اعتصابات چند ماهه در هالیوود توسط انجمن بازیگران سینما و انجمن نویسندگان آمریکا بود.

در ماه مارس، گلدمن ساکس پیش‌بینی کرد که هوش مصنوعی مولد می‌تواند جایگزین ۳۰۰ میلیون شغل از طریق اتوماسیون شود و حداقل به نحوی بر دو سوم مشاغل فعلی در اروپا و ایالات متحده تأثیر بگذارد – کار را سازنده‌تر و همچنین خودکارتر کند.

>

دیگران به دنبال کاهش پیش‌بینی‌های فاجعه‌بارتر بوده‌اند.

در ماه اوت، سازمان بین‌المللی کار، آژانس کار سازمان ملل، گفت که هوش مصنوعی مولد به احتمال زیاد بیشتر مشاغل را افزایش می‌دهد تا جایگزینی آنها، و مشاغل اداری به عنوان مشاغلی که بیشترین خطر را دارند فهرست شده است.

سال “deepfake”؟

سال ۲۰۲۴ یک آزمون بزرگ برای هوش مصنوعی مولد خواهد بود، زیرا برنامه های جدید به بازار می آیند و قوانین جدید در پس زمینه تحولات سیاسی جهانی اعمال می شود.

در طی ۱۲ ماه آینده، بیش از دو میلیارد نفر در انتخابات در ۴۰ کشور، از جمله نقاط حساس ژئوپلیتیکی مانند ایالات متحده، هند، اندونزی، پاکستان، ونزوئلا، سودان جنوبی و تایوان قرار است رای دهند.

در حالی که کمپین‌های اطلاعات نادرست آنلاین در حال حاضر بخشی منظم از بسیاری از چرخه‌های انتخاباتی هستند، انتظار می‌رود محتوای تولید شده توسط هوش مصنوعی اوضاع را بدتر کند زیرا تشخیص اطلاعات نادرست از واقعی دشوارتر می‌شود و تکثیر آن در مقیاس آسان‌تر می‌شود.

محتوای تولید شده توسط هوش مصنوعی، از جمله تصاویر «دیپ جعلی»، قبلاً برای برانگیختن خشم و سردرگمی در مناطق درگیری مانند اوکراین و غزه استفاده شده است و در رقابت‌های انتخاباتی داغ مانند انتخابات ریاست‌جمهوری ایالات متحده نشان داده شده است.

متا ماه گذشته به تبلیغ‌کنندگان گفت که تبلیغات سیاسی را در فیس‌بوک و اینستاگرام که با هوش مصنوعی تولید می‌شوند ممنوع می‌کند، در حالی که یوتیوب اعلام کرد که سازندگان را ملزم می‌کند تا محتوای تولید شده توسط هوش مصنوعی با ظاهر واقعی را برچسب‌گذاری کنند.

ارسال نظر

آدرس ایمیل شما منتشر نخواهد شد.