پایگاه خبری دنیای برند به نقل از ایسنا/خراسان رضوی تحولات در هوش مصنوعی، چالشهای قانونی و اخلاقی جدیدی را برای نحوه استفاده سازمانهای خبری از هوش مصنوعی در تولید و توزیع و همچنین نحوه استفاده سیستمهای هوش مصنوعی از محتوای خبری به همراه دارد.
برای اتاقهای خبر، استفاده از ابزارهای مولد هوش مصنوعی مزایایی را برای بهرهوری و نوآوری ارائه میدهد اما در عین حال، خطر نادرستی، مسائل اخلاقی و تضعیف اعتماد عمومی را نیز به دنبال دارد. همچنین فرصتهایی برای سوء استفاده از کپی رایت برای آثار اصلی روزنامهنگاران فراهم میکند.
برای رسیدگی به این چالشها، قانون باید تعاریف روشنی از دستهبندیهای هوش مصنوعی و حرف مشخصی برای هر کدام داشته باشد و ناشران و شرکتهای فناوری نیز مسئول ایجاد دستورالعملهای اخلاقی شفاف و آموزش در مورد این شیوهها خواهند بود، به همین دلیل همکاری آیندهنگر میان سیاستگذاران، ناشران، توسعهدهندگان فناوری و دانشگاهیان بسیار مهم است.
هوش مصنوعی مولد تهدید شغلی است؟
سالها اشکال اولیه هوش مصنوعی (قبل از توسعه هوش مصنوعی مولد) برای ایجاد و توزیع اخبار و اطلاعات آنلاین مورد استفاده قرار گرفتهاند. اتاقهای خبری بزرگتر از اتوماسیون برای سادهسازی تولید و وظایف معمول، از تولید گزارشهای درآمد و خلاصههای ورزشی گرفته تا تولید برچسبها و رونوشتها استفاده کردهاند. در حالی که این شیوهها در اتاقهای خبری محلی و کوچکتر بسیار کمتر رایج بوده است اما آنها نیز آن را قبول کردند. شرکتهای فناوری همچنین بهطور فزایندهای از هوش مصنوعی برای خودکارسازی وظایف حیاتی مرتبط با اخبار و اطلاعات، مانند توصیه و تعدیل محتوا و همچنین تولید نتایج جستجو و خلاصهها استفاده میکنند.
تا به حال، بحثهای عمومی پیرامون ظهور هوش مصنوعی عمدتا بر پتانسیل آن برای ایجاد اختلال در کار دستی و کارهای عملیاتی مانند خدمات یا تولید متمرکز بوده است، با این فرض که کار خلاقانه به مراتب کمتر تحت تاثیر قرار میگیرد. با این حال، موج اخیر سیستمهای هوش مصنوعی مولد در دسترس و بسیار پیچیده، نگرانیهایی را در مورد پتانسیل آنها برای بیثبات کردن مشاغل یقه سفیدها و کار رسانهای ایجاد کرده است. سوءاستفاده از قانون کپی رایت، دادن اطلاعات نادرست به مردم و از بین بردن اعتماد از این موارد است. در عین حال، این فناوریها همچنین مسیرهای جدیدی را برای پایداری و نوآوری در تولید اخبار از تولید خلاصه یا خبرنامه و پوشش رویدادهای محلی (با نتایج متفاوت) تا ارائه داستانها و تعدیل بخشهای نظرات ایجاد میکنند.
از آنجایی که اتاقهای خبر استفادههای جدید از هوش مصنوعی مولد را تجربه میکنند، برخی از شیوههای آنها به دلیل اشتباهات و عدم شفافیت مورد انتقاد قرار گرفته است. ناشران اخبار، خود مدعی نقض حق نسخهبرداری توسط کسانی هستند که از محتوای خبری برای ساخت و آموزش ابزارهای هوش مصنوعی جدید استفاده میکنند و در برخی موارد، انعقاد معاملات با شرکتهای فناوری یا مسدود کردن دسترسی خزندههای وب به محتوای آنها با پتانسیل ابزارهای هوش مصنوعی مولد برای تغییر بیشتر ترافیک موتورهای جستجو از محتوای خبری است.
این تحولات چالشهای قانونی و اخلاقی جدیدی را برای روزنامهنگاران، سازندگان، سیاستگذاران و پلتفرمهای رسانههای اجتماعی ایجاد میکند که شامل نحوه استفاده ناشران از هوش مصنوعی در تولید و توزیع اخبار، نحوه استخراج سیستمهای هوش مصنوعی از محتوای اخبار و نحوه شکلگیری سیاست هوش مصنوعی در سراسر جهان است.
موج نوآوری در هوش مصنوعی
آخرین موج نوآوری هوش مصنوعی، در بیشتر کشورها، از نظارت یا مقررات دولتی پیشی گرفته است؛ پاسخهای نظارتی به فناوریهای نوظهور مانند هوش مصنوعی از مقررات مستقیم گرفته تا قوانین نرم مثلا دستورالعملها تا خودتنظیمی صنعت در کشورها متفاوت است. برخی از دولتها، مانند روسیه و چین، بهطور مستقیم یا غیرمستقیم توسعه هوش مصنوعی را در کشورهای خود تسهیل و اغلب کنترل میکنند. برخی دیگر تلاش میکنند تا با مشارکت دادن سهامداران مختلف، نوآوری را تسهیل کنند. برخی فعالانه به دنبال تنظیم فناوری هوش مصنوعی و محافظت از شهروندان در برابر خطرات آن هستند. به عنوان مثال، وقتی صحبت از حریم خصوصی میشود، قوانین اتحادیه اروپا تاکید زیادی بر محافظت قوی از دادههای شهروندان از نهادهای تجاری و دولتی دارد، در حالی که کشورهایی مانند چین حق دولت را برای جمعآوری و استفاده از دادههای شهروندان میپذیرند.
این تفاوتها منعکس کننده عدم توافق در مورد ارزشهایی است که باید زیربنای قوانین یا چارچوب های اخلاقی هوش مصنوعی باشد و اجماع جهانی را در مورد مقررات آن چالشبرانگیز میکند. با این حال، قوانین در یک کشور میتواند اثرات مهمی در جای دیگر داشته باشد. مهم است کسانی که سیاست و راهحلهای دیگر را پیشنهاد میکنند تفاوتهای جهانی را بشناسند و دامنه کامل تاثیرات بالقوه آنها را بدون به خطر انداختن ارزش های دموکراتیک مطبوعات مستقل، اینترنت باز و بیان آزاد در نظر بگیرند.
سیاستهای قانونی که بهطور خاص برای تنظیم هوش مصنوعی در نظر گرفته شدهاند، میتوانند به راحتی به دلیل عدم شفافیت در مورد آنچه بهعنوان هوش مصنوعی واجد شرایط است، تضعیف شوند که شناسایی و اجرای تخلفات را بسیار سخت میکند. با توجه به پیچیدگی این سیستمها و سرعت نوآوری در این زمینه، کارشناسان به جای پاسخهای یکسان، خواستار مقررات فردی و تطبیقی شدهاند. توصیههایی برای مشارکت گستردهتر سهامداران در ایجاد قوانین هوش مصنوعی همچنین شامل گروههای درگیرکننده مانند جوامع به حاشیه رانده شده یا آسیبپذیر میشود که اغلب تحت تاثیر نتایج آن قرار میگیرند.
در نهایت، از آنجایی که نقش محتوای خبری در آموزش سیستمهای هوش مصنوعی به بخش مرکزی فزایندهای در بحثهای نظارتی و سیاستگذاری تبدیل میشود، پاسخها به تحولات هوش مصنوعی احتمالا نیاز به حمایت از یک رسانه خبری مستقل و رقابتی دارد. در حال حاضر، این امر در مورد بحثهای خطمشی در مورد مدرنسازی قوانین کپی رایت و استفاده منصفانه برای محتوای دیجیتال و همچنین سایر اشکال حمایت اقتصادی بین ناشران و شرکتهایی که این فناوریها را توسعه و تولید میکنند، اعمال میشود.
حمید مداحی، مسئول سئو و فنی یک وبسایت خبری معتقد است شاید ملموسترین تاثیری که هوش مصنوعی در دنیای امروز دارد، تولید محتواست که اکنون در اختیار عموم مردم نیز قرار گرفته است. استفاده از چتباتها دسترسیهایی را از طریق اپلیکیشنها در حوزه هوش مصنوعی به مردم ارائه کرده که میتوانند سوالات خود را از آن طریق پاسخ دهند و نسبت به یک موضوع مشخص تولید محتوا داشته باشند. یکی از شغلهایی که بسیار سریع در این زمینه تحت تاثیر قرار گرفت، کارشناسان تولید محتوا و خبرنگاران بودند که بسیار سریع تحت تاثیر هوش مصنوعی قرار گرفتند؛ به طوری که بسیاری از سایتهای تجاری که در گذشته نویسندگان، خبرنگاران و کارشناسان تولید محتوا داشتند اکنون برای تولید محتوای محصولاتشان از طریق هوش مصنوعی استفاده میکنند و بخش زیادی از افرادی که در این حوزه کار میکردند نیز بیکار شدند. اگر این فناوری پیشرفت چشمگیری داشته باشد و خبرنگاران دانش آن را نداشته باشند قطعا با مشکلات زیادی روبهرو میشوند. بنابراین باید از هماکنون که این فناوری در حال توسعه است بتوانیم خود را با آن همراه کنیم.
منابع
پایگاه خبری دنیای برند به نقل از ایسنا خراسان رضوی
اینویشن
پایان