سه شنبه / ۲۲ اردیبهشت / ۱۴۰۵
×

یک گروه مدافع حقوق بشر از دولت آمریکا می خواهد قبل از اعطای قرارداد به شرکت های هوش مصنوعی، مدل های نوین آنها را از لحاظ ایمنی بررسی کند.

ایمنی هوش مصنوعی جدید در آمریکا باید بررسی شود
  • کد نوشته: 87587
  • ۲۲ اردیبهشت
  • 5 بازدید
  • بدون دیدگاه
  • به گزارش خبرگزاری مهر به نقل از رویترز، یک گروه مدافع حقوق بشر روز دوشنبه به مقامات آمریکایی اعلام کرد دولت دونالد ترامپ، باید مدل های هوش مصنوعی جدید را قبل از عرضه عمومی برای وجود تهدیدهای امنیتی بررسی کند و قراردادهای کلان با دولت برای مدل هایی که در این بررسی ها شکست می خورند را متوقف کند.

    این درحالی است که کاخ سفید با پیامدهای مدل هوش مصنوعی «مایتوس» متعلق به آنتروپیک دست پنجه نرم می کند. این مدل حملات سایبری پیچیده را ساده تر و اجرای آنها را سریع تر می کند و ریسکی برای امنیت ملی کشور به حساب می آید.

    گروه« آمریکایی ها برای نوآوری مسئولانه»(Americans for Responsible Innovation ) از دولت ترامپ خواسته روش هایی برای بررسی مدل های هوش مصنوعی نوین متعلق به توسعه دهندگان بزرگ را در زمینه قابلیت های توسعه تسلیحات و حمله سایبری ایجاد کند. شرکت ها باید این بررسی را پشت سربگذارند تا واجد شرایط دریافت قراردادهای دولتی شوند.

    مرکز «استانداردهای هوش مصنوعی ونوآوری آمریکا» هم اکنون مشغول بررسی برخی مدل ها از طریق توافقنامه های داوطلبانه با اوپن ای آی، آنتروپیک و در موارد جدیدتر گوگل، مایکروسافت و xAI است.

    این مرکز رهبری ایجاد الزامات اجباری را برعهده دارد و کنگره آمریکا باید یک دفتر اجرای دائمی در وزارت بازرگانی برای اجرای الزامات ایجاد کند. الزامات پیشنهادی شامل تمام شرکت هایی می شود که سالانه ۱۰۰ میلیون دلار یا بیشتر در رایانش برای آموزش مدل های پیشرو هزینه می کنند یا حداقل سالانه ۵۰۰ میلیون دلار درآمد از محصولات و خدمات هوش مصنوعی دارند .

    دیدگاهتان را بنویسید

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *