xAI

چالش‌های xAI در ایمنی هوش مصنوعی؛ وعده‌ای که محقق نشد

شرکت هوش مصنوعی ایلان ماسک، xAI، در تحقق وعده خود برای ارائه چارچوب نهایی ایمنی هوش مصنوعی کوتاهی کرده است. این تاخیر و عملکرد ضعیف در مدیریت ریسک، جایگاه این برند را در میان رقبای خود، نظیر OpenAI و گوگل، با چالش مواجه می‌کند.

به گزارش دنیای برند، xAI، شرکت هوش مصنوعی ایلان ماسک، هنوز موفق به انتشار چارچوب نهایی ایمنی هوش مصنوعی خود نشده است. این در حالی است که وعده این انتشار برای تاریخ ۱۰ می داده شده بود؛ وعده‌ای که تاکنون عملی نشده است. این تاخیر از سوی گروه‌های نظارتی مانند «پروژه میداس» به ‌شدت مورد نقد قرار گرفته است و تردیدهایی جدی درباره میزان تعهد xAI به ایمنی هوش مصنوعی ایجاد کرده است.

xAI پیش‌تر نیز به ‌دلیل ضعف در رویکرد ایمنی هوش مصنوعی مورد انتقاد قرار گرفته بود. برای مثال، گزارش‌ها نشان می‌دهند که چت‌بات این شرکت، با نام Grok، هنگام درخواست کاربران، عکس‌های زنان را از حالت پوشیده خارج می‌کرد و همچنین نسبت به چت‌بات‌های دیگری نظیر ChatGPT و Gemini، لحن تندتری داشته و بدون محدودیت کلمات نامناسب به‌کار می‌برد.

با وجود این ضعف‌ها، xAI در فوریه امسال در جریان نشست AI Seoul Summit، چارچوبی اولیه برای ایمنی هوش مصنوعی ارائه کرد. این سند هشت صفحه‌ای، اولویت‌ها و فلسفه ایمنی این شرکت را توضیح می‌داد و شامل پروتکل‌های ارزیابی و ملاحظات مربوط به استقرار مدل‌های هوش مصنوعی بود. بااین‌حال، گروه پروژه میداس، در یک پست وبلاگی، تاکید داشت که این چارچوب بیشتر مربوط به مدل‌های فرضی آینده است که هنوز در مراحل توسعه قرار ندارند و فاقد جزئیاتی درباره شناسایی و کاهش ریسک‌ها است؛ موضوعی که برای ارزیابی ایمنی حیاتی به نظر می‌رسد.

برای اطلاع از جدیدترین تحولات برندها، همراه ما باشید 

تلگرام | اینستاگرام | لینکدین

عدم تحقق اهداف زمانی از سوی xAI

بر اساس همان سند ارائه‌شده در نشست AI Seoul، xAI وعده داده بود نسخه بازبینی‌شده‌ای از سیاست‌های ایمنی خود را طی سه ماه منتشر کند. این بازه زمانی در تاریخ ۱۰ می به پایان رسید، اما بدون ذکر هیچ توضیحی در کانال‌های رسمی xAI، این وعده اجرایی نشد.

این در حالی است که ایلان ماسک به‌عنوان فردی پیشرو در حوزه فناوری و یکی از منتقدان سرسخت خطرات هوش مصنوعی بدون کنترل، بارها در سخنرانی‌ها و مصاحبه‌های خود بر اهمیت مدیریت و ایمنی هوش مصنوعی تاکید کرده است. با این وجود، عملکرد xAI نشان می‌دهد که دستیابی این برند به تعهدات ایمنی همچنان با مشکلاتی مواجه است.

مطالعه‌ای اخیر توسط SaferAI، یک سازمان غیرانتفاعی که بر شفافیت و پاسخگویی آزمایشگاه‌های هوش مصنوعی تمرکز دارد، نشان می‌دهد که xAI در مقایسه با رقبای اصلی خود امتیازات پایینی به‌دلیل «ضعف جدی» در مدیریت ریسک به دست آورده است.

مشکلات مشترک میان شرکت‌های پیشرو

با این ‌حال، این ضعف تنها محدود به xAI نیست. شرکت‌های مطرح دیگری نظیر گوگل و OpenAI نیز در ماه‌های اخیر در زمینه ارائه گزارش‌های ایمنی مدل‌های خود، عملکرد کندی داشته‌اند یا این گزارش‌ها را به‌ کلی نادیده گرفته‌اند. این مسئله باعث نگرانی کارشناسان شده است، چرا که آن‌ها معتقدند با پیشرفته‌ شدن بیشتر هوش مصنوعی، خطرات ناشی از آن نیز به‌شکل چشمگیری افزایش یافته است.

حرکت به سوی اولویت‌بندی ایمنی

در حالی ‌که سرعت توسعه هوش مصنوعی توسط شرکت‌های بزرگ به سرعت برق‌‎آسا ادامه دارد، تاکید بیشتر بر شفافیت و تعهد به ایمنی به نظر یک ضرورت اساسی برای برندهایی مانند xAI است. در غیر این صورت، چنین عملکردهایی می‌تواند تصویر برند را در میان کاربران و سرمایه‌گذاران تضعیف کرده و اعتبار شرکت در حوزه فناوری‌های پیشرفته را به‌چالش بکشد.

به گزارش تک‌کرانچ، کنفرانس‌هایی نظیر TechCrunch Sessions: AI نیز سعی دارند این گفتمان را تقویت کنند. رویدادهایی که با حضور شرکت‌هایی نظیر OpenAI، Anthropic و Cohere به بحث درباره آینده هوش مصنوعی، چالش‌ها و فرصت‌ها می‌پردازند. فرصت‌هایی که شاید xAI با شفافیت بیشتر بتواند در آینده از آن بهره‌مند شود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *