• چهارشنبه ۷ آذر ۱۴۰۳ -
  • 27 November 2024

  • چهارشنبه ۷ آذر ۱۴۰۳ -
  • 27 November 2024
نگرانی دولت‌ها برای قانون‌گذاری به کجا می‌رسد؟

جنگ سرد جدید بر سر هوش مصنوعی

وقتی جک کلارک، یکی از هم‌بنیان‌گذاران استارت‌آپ آمریکایی هوش مصنوعی Anthropic، بحث طرح باروک (Baruch Plan) را مطرح و آن را با احساس نیاز دولت‌ها برای جلوگیری از گسترش کاربردهای مضر هوش مصنوعی مقایسه کرد، همان حس دلهره آشنای قدیمی به ذهن افراد متبادر شد...

طرح باروک در ماه ژوئن سال ۱۹۴۶ از سوی دولت ایالات‌متحده به کمیسیون انرژی هسته‌ای سازمان ملل متحد ارائه شد که بر اساس آن آمریکا، بریتانیا و کانادا خواستار تشکیل یک سازمان بین‌المللی برای قانون‌گذاری و نظارت بر کاربردهای انرژی هسته‌ای شده بودند. این طرح با واکنش منفی اتحاد جماهیر شوروی مواجه شد که آن را اقدامی در راستای ایجاد انحصار هسته‌ای برای دولت ایالات‌متحده خوانده بود. به این ترتیب در آخرین روزهای سال ۱۹۴۶ شوروی در شورای امنیت سازمان ملل متحد از امضای این طرح سر باز زد تا جنگ سرد آغاز شود.

وقتی کارآفرینان ابداعات‌شان را با بمب‌های هسته‌ای مقایسه می‌کنند، گویا باید منتظر نقطه عطفی در آن صنعت بود. از زمانی که چت جی‌پی‌تی در سال گذشته میلادی ارائه شد، نگرانی‌ها از مرز خطرهای موجود ناشی از هوش مصنوعی هم فراتر رفته است. با این حال، این‌بار شرایط فرق می‌کند. اگر به صحبت‌های بعضی از پیشگامان این عرصه گوش کنید، خواهید دید که وقتی بحث بهتر اندیشیدن ماشین‌ها از انسان‌ها و خطرات پنهان آن برای مشاغل به میان می‌آید، آنها کمتر درباره ویرانشهر آینده نگران هستند. چت جی‌پی‌تی نمونه‌ای از هوش مصنوعی مولد است که بر اساس تحلیل‌هایش از متون، تصاویر و صداهای موجود در اینترنت، محتوای انسان‌گونه تولید می‌کند. سم آلتمن، مدیرعامل شرکت OpenAI که سازنده این چت‌بات است، به تازگی در کنگره ایالات‌متحده حاضر شد و اعلام کرد که وجود نوعی مداخله نظارتی برای مدیریت خطرات ناشی از توسعه سریع مدل‌های زبانی بزرگ (LLMS) مربوط به چت‌بات‌های هوشمند، لازم و ضروری است.
بعضی از رقبای او در سانفرانسیسکو می‌گویند که آنها در غیبت قوانین، کانال‌های حمایتی را با مقامات دولتی در واشنگتن ایجاد کرده‌اند تا درباره خطرات و ضررهای بالقوه چت‌بات‌هایشان مباحثه و مشاوره کنند. این خطرات شامل مواردی از قبیل نژادپرستی و قابلیت‌های خطرناکی مانند حقوق کودک و ساخت بمب می‌شوند. مصطفی سلیمان، هم‌بنیان‌گذار استارت‌آپ Inflection ai تصمیم دارد تا در هفته‌های پیش‌رو جوایز سخاوتمندانه‌ای به هکرهایی بدهد که می‌توانند آسیب‌پذیری‌های موجود در دستیار سخنگوی دیجیتال شرکتش با نام Pi را شناسایی کنند.
چنین مصلحت‌اندیشی‌هایی باعث می‌شود این رشد انفجاری اولیه در دنیای تکنولوژی، دست‌کم در ظاهر کمی متفاوت به نظر برسد. طبق معمول سرمایه‌گذاری خطرپذیر در این زمینه نقش دارد. با این حال برخلاف رویکرد «سریع برو جلو و همه‌چیز را خراب کن» در سال گذشته، حالا بسیاری از ارائه‌های استارت‌آپی در ابتدای این جریان و پس از آن مربوط به موضوع ایمنی هستند. حکایت قدیمی سیلیکون‌ولی درباره قانون‌گذاری و نظارت (بهتر است خواستار بخشش باشید تا مجوز) دیگر کنار گذاشته شده است. استارت‌آپ‌هایی مانند OpenAI، Anthropic و Inflection ai آن‌قدر مشتاق به نتیجه رسیدن ایده‌شان هستند که حاضر نمی‌شوند تنها به خاطر درآمدزایی، ایمنی را قربانی کنند.
دلیل دیگری که این رشد انفجاری را متمایز می‌کند آن است که این استارت‌آپ‌ها مدل‌های زبانی بزرگ (LLMS) اختصاصی خودشان را با هدف سرنگونی سلسله غول‌های تکنولوژی موجود، ایجاد نمی‌کنند. در واقع آنها ممکن است آن را تقویت هم بکنند. این به خاطر آن است که روابط‌شان با غول‌های تکنولوژی پیشرو در رقابت هوش مصنوعی مولد، نیازمند نوعی همزیستی است.‌OpenAI وابسته به مایکروسافت است؛ سرمایه‌گذار بزرگی که از تکنولوژی قبلی آن برای بهبود نرم‌افزارها و محصولات جست‌وجوی خودش استفاده می‌کند. آلفابت، شرکت مادر گوگل، بخش قابل‌توجهی از سهام استارت‌آپ Anthropic را در اختیار دارد. این استارت‌آپ در بیست‌وسوم ماه مه ‌امسال اعلام کرد که بخش زیادی از آخرین مرحله جذب سرمایه ۴۵۰ میلیون دلاری‌اش متعلق به این غول تکنولوژی بوده است. شرکت‌های جوان‌تر حتی سعی دارند ارتباط مستحکم‌تری با غول‌های تکنولوژی و پلتفرم‌های ابری آنها ایجاد کنند تا الگوهای زبانی خودشان را با اقیانوسی از داده آموزش بدهد و به این ترتیب رفتار چت‌بات‌های‌شان شباهت بیشتری به انسان داشته باشد.
مایکروسافت و گوگل هم مانند این استارت‌آپ‌ها مشتاق هستند تا نشان بدهند که امنیت موضوع بسیار مهمی برای آنهاست؛ حتی اگر در رقابت چت‌بات‌ها با یکدیگر در حال جنگ باشند. همچنین آنها درباره لزوم تصویب قوانین جدید در این زمینه با یکدیگر مباحثه می‌کنند و اتفاق نظر دارند که باید یک همکاری بین‌المللی برای نظارت بر عملکرد مدل‌های زبانی بزرگ (LLMS) وجود داشته باشد. در همین راستا ساندار پیچای، مدیرعامل آلفابت، گفته است: «هوش مصنوعی به قدری اهمیت دارد که نباید تحت کنترل قرار بگیرد و آنقدر اهمیت دارد که نمی‌توان به خوبی برای آن قانون‌گذاری کرد
این اقدامات احتمالا تضمین خوب و کاملی برای جلوگیری از خطرات اطلاعات نادرست، مدیریت نتایج انتخابات، تروریسم، ایجاد اختلال در مشاغل و دیگر خطرات بالقوه که به دنبال گسترش سریع مدل‌های زبانی ایجاد می‌شوند، نخواهند بود. با این وجود قانون‌گذاری می‌تواند مزایایی برای غول‌های تکنولوژی داشته باشد، به خاطر آنکه احتمالا ساختارهای فعلی بازار را تقویت کرده، هزینه‌های تولید را کاهش داده و موانع بیشتری برای ورود به این عرصه ایجاد می‌کند.
این موضوع اهمیت زیادی دارد.به گزارش دنیای اقتصاد، اگر غول‌های تکنولوژی از قوانین و مقررات استحکام جایگاه خودشان بر قله‌های هوش مصنوعی مولد استفاده کنند، این یک معامله خواهد بود. این شرکت‌های بزرگ تکنولوژی به احتمال زیاد از هوش مصنوعی مولد برای ارتقای کیفیت محصولات فعلی خود استفاده می‌کنند تا آنکه به کلی آنها را با نمونه‌های جدید جایگزین کنند. آنها به دنبال محافظت از تجارت اصلی خود (مانند نرم‌افزار برای مایکروسافت و جست‌وجوی اینترنتی برای گوگل) هستند. به جای جانمایی در یک دوره تازه از تخریب خلاق شومپیتری، این روند بیشتر به شکل یک یادآور عمل می‌کند که شرکت‌های بزرگ فعلی سعی دارند فرآیند نوآوری را کنترل کنند؛ چیزی که بعضی‌ها آن را «انباشت خلاق» می‌نامند.
لینک کوتاه خبر: https://eghtesadkerman.ir/7453
اخبار مرتبط
نظرات شما