ایالات متحده برای اولین بار هوش مصنوعی را به عنوان یک خطر برای سیستم مالی برجسته می کند
شورای نظارت بر ثبات مالی میگوید فناوریهای نوظهور خطرات ایمنی و سلامت و همچنین مزایایی را به همراه دارد.
تنظیم کنندگان مالی در ایالات متحده هوش مصنوعی (AI) را به عنوان خطری برای سیستم مالی نامیده اند. اولین بار.
شورای نظارت بر ثبات مالی در آخرین گزارش سالانه خود گفت که استفاده روزافزون از هوش مصنوعی در خدمات مالی یک “آسیب پذیری” است که باید نظارت شود.
در حالی که هوش مصنوعی وعده کاهش هزینهها، بهبود کارایی، شناسایی روابط پیچیدهتر و بهبود عملکرد و دقت را میدهد، همچنین میتواند “خطرات خاصی از جمله خطرات ایمنی و سلامت مانند ریسکهای سایبری و مدل را معرفی کند.” در گزارش سالانه خود که روز پنجشنبه منتشر شد.
FSOC، که در پی بحران مالی ۲۰۰۸ برای شناسایی ریسکهای بیش از حد در سیستم مالی تأسیس شد، گفت که تحولات در هوش مصنوعی باید تحت نظارت باشد تا اطمینان حاصل شود که مکانیسمهای نظارتی «ریسکهای نوظهور را در نظر میگیرند» و در عین حال «کارایی و نوآوری» را تسهیل میکنند. “
FSOC گفت که مقامات همچنین باید “تخصص و ظرفیت” را برای نظارت بر این زمینه تقویت کنند.
جانت یلن، وزیر خزانه داری ایالات متحده، که ریاست FSOC را بر عهده دارد، گفت که با پذیرش فناوری های نوظهور صنعت مالی، جذب هوش مصنوعی ممکن است افزایش یابد و شورا نقشی در نظارت بر “ریسک های نوظهور” ایفا خواهد کرد.
یلن گفت: “حمایت از نوآوری مسئولانه در این زمینه می تواند به سیستم مالی اجازه دهد تا از مزایایی مانند افزایش کارایی بهره مند شود، اما اصول و قوانین موجود برای مدیریت ریسک نیز وجود دارد که باید اعمال شوند.”
جو بایدن، رئیسجمهور ایالات متحده در ماه اکتبر فرمان اجرایی گستردهای درباره هوش مصنوعی صادر کرد که عمدتاً بر پیامدهای بالقوه این فناوری برای امنیت ملی و تبعیض متمرکز بود.
دولتها و دانشگاهیان در سرتاسر جهان نگرانیهای خود را درباره سرعت بینظیر توسعه هوش مصنوعی، در میان پرسشهای اخلاقی در مورد حریم خصوصی افراد، امنیت ملی و نقض حق نسخهبرداری ابراز کردهاند.
در یک نظرسنجی اخیر که توسط محققان دانشگاه استنفورد انجام شد، کارکنان فناوری درگیر در تحقیقات هوش مصنوعی هشدار دادند که کارفرمایان آنها علیرغم تعهدات عمومی خود برای اولویت دادن به ایمنی، از ایجاد پادمانهای اخلاقی کوتاهی میکنند.
هفته گذشته، سیاستگذاران اتحادیه اروپا در مورد قانون مهمی به توافق رسیدند که از توسعه دهندگان هوش مصنوعی می خواهد که داده های مورد استفاده برای آموزش سیستم های خود و انجام آزمایش محصولات پرخطر را افشا کنند.