قوانین، ممنوعیت مدارس و درام سام آلتمن: تحولات بزرگ در هوش مصنوعی در سال ۲۰۲۳
صنعت هوش مصنوعی (AI) در سال ۲۰۲۳ با موفقیت آغاز شد، زیرا مدارس و دانشگاه ها با دانش آموزانی که از ChatGPT OpenAI برای کمک به آنها استفاده می کردند، دست و پنجه نرم می کردند. با تکالیف و انشا نویسی.
کمتر از یک هفته از سال می گذرد، مدارس دولتی شهر نیویورک ChatGPT را ممنوع کردند – که هفته ها قبل با سر و صدای زیادی منتشر شد – حرکتی که زمینه را برای بسیاری از بحث ها در مورد هوش مصنوعی مولد در سال ۲۰۲۳ فراهم می کند.
هنگامی که سروصدا پیرامون ChatGPT تحت حمایت مایکروسافت و رقبایی مانند Bard AI Google، Ernie Chatbot Baidu و LLaMA از Meta افزایش یافت، سوالاتی در مورد نحوه مدیریت یک فناوری جدید قدرتمند که یک شبه در دسترس عموم قرار گرفته بود نیز افزایش یافت.
در حالی که تصاویر، موسیقی، ویدیوها و کدهای رایانهای ایجاد شده توسط هوش مصنوعی ایجاد شده توسط پلتفرمهایی مانند Stability AI’s Stable Diffusion یا OpenAI’s DALL-E فرصتهای جدید هیجانانگیزی را ایجاد میکنند، آنها همچنین نگرانیهایی را در مورد اطلاعات نادرست، آزار و اذیت هدفمند و نقض حق نسخهبرداری دامن میزنند.
در ماه مارس، گروهی متشکل از بیش از ۱۰۰۰ امضاکننده، از جمله استیو وزنیاک، بنیانگذار اپل و ایلان ماسک، کارآفرین میلیاردر فناوری، خواستار توقف توسعه هوش مصنوعی پیشرفته تر با توجه به “خطرات عمیق آن برای جامعه و بشریت” شدند. “
در حالی که مکثی اتفاق نیفتاد، دولتها و مقامات نظارتی شروع به وضع قوانین و مقررات جدید کردند تا نردههایی را برای توسعه و استفاده از هوش مصنوعی تعیین کنند.
در حالی که بسیاری از مسائل پیرامون هوش مصنوعی تا سال جدید حل نشده باقی میمانند، احتمالاً از سال ۲۰۲۳ به عنوان نقطه عطف مهمی در تاریخ این حوزه یاد میشود.
درام در OpenAI
بعد از اینکه ChatGPT در سال ۲۰۲۳ بیش از ۱۰۰ میلیون کاربر جمع کرد، توسعه دهنده OpenAI در ماه نوامبر با اخراج ناگهانی مدیر عامل شرکت سام آلتمن – با ادعای اینکه او “به طور مداوم در ارتباطات خود با هیئت مدیره صادق نبوده”، به سرفصل اخبار بازگشت.< /p>
اگرچه استارتآپ سیلیکون ولی در مورد دلایل اخراج آلتمن توضیحی نداد، اما برکناری او به طور گسترده به یک مبارزه ایدئولوژیک در داخل شرکت بین نگرانیهای ایمنی و تجاری نسبت داده شد.
برکناری آلتمن پنج روز درام بسیار عمومی را به همراه داشت که باعث شد کارکنان OpenAI به طور انبوه تهدید به استعفا کنند و آلتمن برای مدت کوتاهی توسط مایکروسافت استخدام شد، تا زمانی که دوباره به کار خود بازگردد و هیئت مدیره جایگزین شود.
در حالی که OpenAI سعی کرده از این درام خارج شود، سؤالات مطرح شده در طول تحولات برای صنعت به طور کلی صادق است – از جمله اینکه چگونه می توان انگیزه کسب سود و عرضه محصول جدید را در برابر ترس از اینکه هوش مصنوعی می تواند خیلی سریع قدرتمند شود. ، یا به دست اشتباهی بیفتید.
در یک نظرسنجی از ۳۰۵ توسعهدهنده، سیاستگذار و دانشگاهی که توسط مرکز تحقیقات پیو در ماه جولای انجام شد، ۷۹ درصد از پاسخدهندگان گفتند که یا بیشتر نگران آینده هوش مصنوعی هستند تا هیجانزده، یا به همان اندازه نگران هستند.
با وجود پتانسیل هوش مصنوعی برای تبدیل رشتهها از پزشکی به آموزش و ارتباطات جمعی، پاسخدهندگان در مورد خطراتی مانند نظارت انبوه، آزار و اذیت دولت و پلیس، جابجایی شغلی و انزوای اجتماعی ابراز نگرانی کردند.
شان مک گرگور، بنیانگذار Responsible AI Collaborative، گفت که سال ۲۰۲۳ امیدها و ترس هایی را که در مورد هوش مصنوعی مولد وجود دارد و همچنین شکاف های عمیق فلسفی در این بخش را به نمایش گذاشت.
مک گرگور به الجزیره گفت: “امیدوارترین نوری است که اکنون بر تصمیمات اجتماعی اتخاذ شده توسط فناوران می تابد، اگرچه این نگران کننده است که به نظر می رسد بسیاری از همتایان من در بخش فناوری چنین توجهی را منفی می دانند.” و افزود که هوش مصنوعی باید شکل بگیرد. توسط “نیازهای مردمی که بیشتر تحت تاثیر قرار گرفته اند”.
او گفت: “هنوز تا حد زیادی احساس مثبتی دارم، اما چند دهه چالش برانگیز خواهد بود زیرا ما متوجه میشویم که گفتمان در مورد ایمنی هوش مصنوعی نسخه فنآوری فنآوری چالشهای قدیمی اجتماعی است.”
قانون گذاری آینده
در ماه دسامبر، سیاست گذاران اتحادیه اروپا در مورد قوانین جامع برای تنظیم توافق کردند. آینده هوش مصنوعی، که یک سال تلاش دولتهای ملی و نهادهای بینالمللی مانند سازمان ملل و G7 را در بر میگیرد.
نگرانیهای کلیدی شامل منابع اطلاعاتی است که برای آموزش الگوریتمهای هوش مصنوعی استفاده میشود، که بسیاری از آنها بدون در نظر گرفتن حریم خصوصی، تعصب، دقت یا حق نسخهبرداری از اینترنت حذف میشوند.
پیشنویس قانون اتحادیه اروپا از توسعهدهندگان میخواهد که دادههای آموزشی و مطابقت با قوانین این بلوک را با محدودیتهایی در مورد انواع خاصی از استفاده و مسیری برای شکایات کاربران افشا کنند.
تلاشهای قانونی مشابهی در ایالات متحده در حال انجام است، جایی که جو بایدن، رئیسجمهور جو بایدن در اکتبر فرمان اجرایی گستردهای را در مورد استانداردهای هوش مصنوعی صادر کرد، و بریتانیا، که در نوامبر میزبان اجلاس ایمنی هوش مصنوعی با حضور ۲۷ کشور و ذینفعان صنعت بود.
>
چین همچنین اقداماتی را برای تنظیم آینده هوش مصنوعی انجام داده است و قوانین موقتی را برای توسعهدهندگان منتشر میکند که آنها را ملزم میکند قبل از عرضه محصولات به عموم، تحت یک “ارزیابی امنیتی” قرار گیرند.
دستورالعملها همچنین دادههای آموزشی هوش مصنوعی را محدود میکنند و محتوایی را که «حمایت از تروریسم»، «تضعیف ثبات اجتماعی»، «سرنگونی نظام سوسیالیستی» یا «آسیب به وجهه کشور» دیده میشود، ممنوع میکند.
در سطح جهانی، سال ۲۰۲۳ همچنین شاهد اولین توافقنامه موقت بین المللی در مورد ایمنی هوش مصنوعی بود که توسط ۲۰ کشور از جمله ایالات متحده، بریتانیا، آلمان، ایتالیا، لهستان، استونی، جمهوری چک، سنگاپور، نیجریه، اسرائیل و شیلی امضا شد. .
هوش مصنوعی و آینده کار
سوالات در مورد آینده هوش مصنوعی در بخش خصوصی نیز بیداد می کند، جایی که استفاده از آن قبلاً منجر به شکایت های دسته جمعی در ایالات متحده از نویسندگان، هنرمندان و رسانه های خبری مبنی بر نقض حق نسخه برداری شده است.
ترس در مورد جایگزینی شغل توسط هوش مصنوعی عامل محرک اعتصابات چند ماهه در هالیوود توسط انجمن بازیگران سینما و انجمن نویسندگان آمریکا بود.
در ماه مارس، گلدمن ساکس پیشبینی کرد که هوش مصنوعی مولد میتواند جایگزین ۳۰۰ میلیون شغل از طریق اتوماسیون شود و حداقل به نحوی بر دو سوم مشاغل فعلی در اروپا و ایالات متحده تأثیر بگذارد – کار را سازندهتر و همچنین خودکارتر کند.
>
دیگران به دنبال کاهش پیشبینیهای فاجعهبارتر بودهاند.
در ماه اوت، سازمان بینالمللی کار، آژانس کار سازمان ملل، گفت که هوش مصنوعی مولد به احتمال زیاد بیشتر مشاغل را افزایش میدهد تا جایگزینی آنها، و مشاغل اداری به عنوان مشاغلی که بیشترین خطر را دارند فهرست شده است.
سال “deepfake”؟
سال ۲۰۲۴ یک آزمون بزرگ برای هوش مصنوعی مولد خواهد بود، زیرا برنامه های جدید به بازار می آیند و قوانین جدید در پس زمینه تحولات سیاسی جهانی اعمال می شود.
در طی ۱۲ ماه آینده، بیش از دو میلیارد نفر در انتخابات در ۴۰ کشور، از جمله نقاط حساس ژئوپلیتیکی مانند ایالات متحده، هند، اندونزی، پاکستان، ونزوئلا، سودان جنوبی و تایوان قرار است رای دهند.
در حالی که کمپینهای اطلاعات نادرست آنلاین در حال حاضر بخشی منظم از بسیاری از چرخههای انتخاباتی هستند، انتظار میرود محتوای تولید شده توسط هوش مصنوعی اوضاع را بدتر کند زیرا تشخیص اطلاعات نادرست از واقعی دشوارتر میشود و تکثیر آن در مقیاس آسانتر میشود.
محتوای تولید شده توسط هوش مصنوعی، از جمله تصاویر «دیپ جعلی»، قبلاً برای برانگیختن خشم و سردرگمی در مناطق درگیری مانند اوکراین و غزه استفاده شده است و در رقابتهای انتخاباتی داغ مانند انتخابات ریاستجمهوری ایالات متحده نشان داده شده است.
متا ماه گذشته به تبلیغکنندگان گفت که تبلیغات سیاسی را در فیسبوک و اینستاگرام که با هوش مصنوعی تولید میشوند ممنوع میکند، در حالی که یوتیوب اعلام کرد که سازندگان را ملزم میکند تا محتوای تولید شده توسط هوش مصنوعی با ظاهر واقعی را برچسبگذاری کنند.