اتهام سودجویی OpenAI از بازرسی مدل‌ها در دعاوی حقوقی

اتهام سودجویی OpenAI از بازرسی مدل‌ها در دعاوی حقوقی
خلاصه اخبار

نیویورک تایمز، OpenAI را به هزینه‌های سنگین برای بازرسی مدل‌های هوش مصنوعی متهم کرده، موضوعی که چالش شفافیت و پاسخگویی در AI را برجسته می‌کند.

به گزارش تجارت نیوز ،

پرسش از چگونگی بررسی عملکرد داخلی سیستم‌های هوش مصنوعی به یکی از مسائل اصلی تبدیل شده است؛ به‌ویژه در شرایطی که دولت‌ها و دادگاه‌ها با مقررات‌گذاری این فناوری‌ها، که به‌سرعت ارتقا می‌یابند، دست‌وپنجه نرم می‌کنند.

از زمان عرضه ChatGPT از سوی OpenAI دو سال پیش، شرکت‌های فناوری برای بهره‌برداری از علاقه عمومی به پتانسیل‌های هوش مصنوعی رقابت تنگاتنگی داشته‌اند اما این پذیرش سریع، نگرانی‌های جهانی درباره پیامدهای پیش‌بینی‌ناپذیر و بالقوه خطرناک این ابزارها را افزایش داده است؛ از جمله تهدید برای امنیت شغلی، انتشار اطلاعات نادرست و خطرات امنیت ملی.

در میان این نگرانی‌ها، چالشی بزرگ به چشم می‌خورد: چگونه می‌توان شرکت‌های هوش مصنوعی را برای آسیب‌های ناشی از مدل‌هایشان پاسخگو دانست؟ OpenAI اکنون در مرکز یک پرونده حقوقی قرار گرفته است که می‌تواند آینده بازرسی و مقررات‌گذاری سیستم‌های پیشرفته هوش مصنوعی را شکل دهد.

این شرکت متهم است که در یک دعوی حقوقی مرتبط با نیویورک تایمز (NYT) از درخواست‌های بازرسی سوءاستفاده و هزینه‌های سنگینی برای دسترسی به جزئیات فنی مدل‌هایش مطالبه کرده است.

اتهام پروتکل‌های پرهزینه بازرسی

این اختلاف حقوقی به ادعاهای نقض حق‌ تکثیر از سوی NYT بازمی‌گردد که مدعی است OpenAI از محتوای دارای کپی‌رایت این روزنامه برای آموزش ChatGPT استفاده کرده است.

پروتکل پیشنهادی OpenAI برای بازرسی مدل‌هایش تدابیر سخت‌گیرانه‌ای اندیشیده، از جمله استخدام کارشناسان برای بررسی اطلاعات محرمانه در یک محیط کنترل‌شده و ایمن که به وسیله خود OpenAI تعیین می‌شود. این فرایند عبارت از محدودیت‌هایی در زمان، دسترسی و تعداد جست‌وجوهاست که همگی در یک محیط آفلاین برای حفظ محرمانگی انجام می‌شود.

با وجود اینکه NYT به اصل فرایند بازرسی اعتراضی نداشته، اما با تصمیم OpenAI برای محدود کردن تعداد جست‌وجوها به سقف 15 هزار دلار اعتبار مخالف است. OpenAI پیشنهاد کرده هزینه‌های بیشتر را با شاکیان تقسیم و نیمی از هزینه‌های اضافی را به نرخ خرده‌فروشی دریافت کند.

 به گفته NYT، این پیشنهاد ممکن است هزینه‌ای معادل 800 هزار دلار در اعتبارات به بار آورد؛ رقمی که بسیار بیشتر از هزینه واقعی دسترسی به این اطلاعات است.

NYT استدلال می‌کند OpenAI هزینه‌ها را به‌ طور ناعادلانه افزایش داده تا روند حقوقی را دشوارتر کند. در اسناد دادگاه، NYT شرکت OpenAI را متهم کرده که به جای تمرکز بر هزینه واقعی بازرسی، بر نرخ خرده‌فروشی تمرکز دارد. OpenAI از سقف هزینه‌ها دفاع کرده و آن را برای کاهش بار شرکت و جلوگیری از جست‌وجوهای غیرضروری لازم دانسته است.

چالش‌های دسترسی به شواهد

این اختلاف، دشواری‌های عمومی و قضایی در بررسی سیستم‌های هوش مصنوعی را آشکار می‌کند. NYT ادعا می‌کند هزینه‌های بالای بازرسی همراه با موانع فنی، روند جمع‌آوری شواهد مربوط به نقض حق‌تکثیر را به‌شدت کند کرده است. در محیط کنترل‌شده بازرسی، شاکیان گزارش داده‌اند با اختلالات متعددی مانند قطع شدن‌های تصادفی و موانع فنی مواجه شده‌اند که دسترسی به داده‌های پیش‌آموزشی OpenAI را مختل کرده است.

پس از 27 روز بازرسی، NYT مدعی شده میلیون‌ها اثر آنها در داده‌های پیش‌آموزشی ChatGPT وجود دارد، اما به دلیل این اختلالات، نتوانسته به‌ طور کامل ابعاد نقض ادعایی را مشخص کند. شاکیان از دادگاه خواسته‌اند OpenAI را مجبور به ارائه مستقیم داده‌ها کند، چراکه پروتکل فعلی بازرسی ناکارآمد و بیش از حد دشوار است.

پیامدهای مقررات‌گذاری هوش مصنوعی

این پرونده به مساله مهم‌تر شفافیت در صنعت هوش مصنوعی اشاره دارد. با پیشرفت این حوزه، شرکت‌ها به طور فزاینده‌ای از مدل‌های خود محافظت می‌کنند و این سبب دشواری ارزیابی آسیب‌ها و پاسخگویی می‌شود.

لوکاس هانسن، یکی از بنیان‌گذاران CivAI، بر چالش‌های بازرسی مدل‌های اختصاصی تاکید کرده است. او می‌گوید، بازرسی برخی از مدل‌ها با نسخه‌های عمومی امکان‌پذیر است، اما این مدل‌ها معمولاً نسخه‌های تغییریافته‌ای هستند که داده‌های آموزشی را پنهان می‌کنند. دسترسی کامل به مدل‌های اصلی، همان‌طور که NYT در پی آن است، برای کشف شواهد آسیب ضروری است.

پیامدهای گسترده‌تر حقوقی و اجتماعی

نتیجه این پرونده می‌تواند به عنوان معیاری برای نحوه رسیدگی شرکت‌های هوش مصنوعی به درخواست‌های حقوقی در آینده عمل کند. اگر دادگاه‌ها به شرکت‌هایی مانند OpenAI اجازه دهند هزینه‌های بازرسی را بر اساس نرخ خرده‌فروشی تعیین کنند، این امر ممکن است افراد و سازمان‌ها را به دلیل هزینه‌های بالا از پیگیری دعاوی حقوقی منصرف کند.

این بحث همچنین با نگرانی‌های گسترده‌تری درباره کافی بودن تدابیر ایمنی هوش مصنوعی در ایالات متحده مرتبط است. موسسه ایمنی هوش مصنوعی (AISI) اخیراً برای مقابله با خطرات مرتبط با هوش مصنوعی تاسیس شده، اما پروتکل‌های داوطلبانه آن و بودجه محدودش پرسش‌هایی درباره توانایی آن در شناسایی و کاهش آسیب‌ها به وجود آورده است.

اهمیت موضوع در بین عموم

این اختلاف حقوقی پیامدهای مهمی برای عموم دارد. با ادغام بیشتر سیستم‌های هوش مصنوعی در زندگی روزمره، خطر خروجی‌های پیش‌بینی‌ناپذیر و مضر افزایش می‌یابد. دعوی NYT علیه OpenAI بر اهمیت شفافیت و پاسخگویی در توسعه هوش مصنوعی تاکید دارد و چالش‌های متعادل کردن نوآوری با ملاحظات اخلاقی را برجسته می‌کند.

در حالی که OpenAI وعده بهبود اقدامات ایمنی مدل‌هایش را داده، منتقدانی چون هانسن معتقدند این شرکت هنوز راه زیادی تا رسیدن به این هدف دارد. نتیجه این پرونده می‌تواند درک بهتری از نحوه مقررات‌گذاری فناوری‌های قدرتمند هوش مصنوعی و تضمین استفاده مسئولانه از آنها به دست دهد.

منبع: تجارت نیوز

دیدگاه شما

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *