بلاکچین، شفاف، قابل ردیابی، قابل اعتماد و بدون دستکاری است. آیا بلاکچین میتواند ابهام جعبه سیاه هوش مصنوعی را جبران کند؟...
اکثر انقلابهای مبتنی بر فناوری با جنبههای تاریکتر و پیشبینینشدهتری همراه هستند. وقتی فیزیکدانان اتریشی الاصل لیز مایتنر و اتو فریش برای نخستین بار اتم را در اواخر دهه ۱۹۳۰ شکافتند، احتمالاً پیشبینی نمیکردند که کشف آنها چند سال بعد به بمب اتمی منجر شود. به عقیده خیلی از افراد انقلاب هوش مصنوعی (AI) مسلماً تفاوتی ندارد.
الگوریتمهای هوش مصنوعی دهههاست که وجود دارند. نخستین شبکه عصبی مصنوعی، پرسپترون، در سال ۱۹۵۸ اختراع شد. اما سرعت توسعه اخیر خیرهکننده بوده است و با دستگاههای تشخیص صدا مانند الکسا و رباتهای چت مانند ChatGPT، به نظر میرسد هوش مصنوعی آگاهی عمومی جدیدی را بهدست آورده است.
از جنبه مثبت، هوش مصنوعی میتواند سطح تحصیلات عمومی سیاره را به طرز چشمگیری افزایش دهد و به یافتن راهحلهایی برای بیماریهای ویرانگر مانند آلزایمر کمک کند. اما همچنین میتواند مشاغل را جابهجا کند و دولتهای مستبدی را تقویت کند که میتوانند از آن برای نظارت بر جمعیت خود استفاده کنند. جفری هینتون، یکی از پیشگامان هوش مصنوعی، اخیراً هشدار داد، اگر ماشینها به هوش «کلی» دست یابند، حتی ممکن است برای براندازی انتخابات و پیگرد قانونی جنگها آموزش ببینند.
جو بایدن، رئیسجمهوری ایالات متحده، اخیراً هوش مصنوعی را «ظرفیت عظیم و خطر عظیم» توصیف کرد. این اظهارات بعد از نامه سرگشاده هزار رهبر فناوری، بیان شد. در ماه مارس یک نامه سرگشاده از طرف هزار رهبر فناوری، از جمله ماسک و استیو وزنیاک، منتشر شد که در آن خواستار توقف پیشرفتهای هوش مصنوعی مانند ChatGPT شد. آنها اعتقاد دارند که این فناوری خطرات عمیقی برای جامعه و بشریت خواهد داشت.
درحالحاضر، برخی از کشورها در برابر OpenAI، توسعه دهنده ChatGPT صف آرایی کردهاند. ایتالیا در ماه مارس ChatGPT را به طور موقت ممنوع کرد و کمیسر حریم خصوصی کانادا در حال بررسی OpenAI به اتهام جمعآوری و استفاده از اطلاعات شخصی بدون رضایت است. اتحادیه اروپا در حال مذاکره درباره قوانین جدید برای هوش مصنوعی است، در حالی که چین از توسعه دهندگان هوش مصنوعی میخواهد که از این پس قوانین سختگیرانه سانسور را رعایت کنند. مقداری از مقررات اجتناب ناپذیر به نظر میرسد.
پادزهری برای هوش مصنوعی
با این پیشزمینه، یک سوال پیش میآید: آیا فناوری بلاک چین میتواند مشکلاتی را که هوش مصنوعی ایجاد میکند را برطرف کند؟ به هر حال، فناوری دفتر کل غیرمتمرکز، مسلماً هر چیزی است که هوش مصنوعی نیست: شفاف، قابل ردیابی، قابل اعتماد و بدون دستکاری. این میتواند به جبران برخی از شفافیت راهحلهای جعبه سیاه هوش مصنوعی کمک کند.
آنتونی دی، رئیس استراتژی و بازاریابی در Midnight، زنجیره جانبی Cardano ، در ماه آوریل در لینکدین نوشت، ما باید راهی ایجاد کنیم تا بتوانیم اعتماد، قابلیت ردیابی، شفافیت و عدم امکان سانسور را به طور خودکار در فناوری هوش مصنوعی و آنچه آن برای جهان به ارمغان خواهد آورد، ایجاد کنیم. بلاک چینها میتوانند مخزنی برای دادههای آموزشی هوش مصنوعی باشند.
کاربران مدلهای متمرکز هوش مصنوعی اغلب از سوگیریهای ذاتی در آموزش خود آگاه نیستند. افزایش شفافیت برای مدلهای هوش مصنوعی با استفاده از فناوری بلاک چین امکانپذیر است.
بسیاری موافقند که قبل از اینکه هوش مصنوعی به جریان اصلی تبدیل شود، باید کاری انجام داد. کی فرث باترفیلد، رئیس هوش مصنوعی و یادگیری ماشین در مجمع جهانی اقتصاد گفت: برای اعتماد به هوش مصنوعی، مردم باید دقیقاً بدانند و بفهمند که هوش مصنوعی چیست، چه کاری انجام میدهد و تاثیرات آن چه خواهد بود. رهبران و شرکتها باید هوش مصنوعی شفاف و قابل اعتماد را با اجرای فناوری بلاکیچن در اولویت قرار دهند.
جالب اینجاست که کارهایی در این راستا در حال انجام است. در ماه فوریه، شرکت فینتک مستقر در ایالات متحده FICO حق اختراع «Blockchain for Data and Model Governance» را دریافت کرد که به طور رسمی فرآیندی را ثبت کرد که سالها از آن برای اطمینان از شیوههای هوش مصنوعی «مسئولانه» استفاده میکرد.
به گفته این شرکت که بیش از ۳۰۰ دانشمند داده دارد و با بسیاری از افراد کار میکند، FICO از یک دفتر کل مبتنی بر اتریوم برای ردیابی منشأ توسعه، عملیاتیسازی و نظارت بر مدلهای یادگیری ماشین به شیوهای تغییرناپذیر استفاده میکند. قابل توجه است که تفاوتهای ظریفی بین اصطلاحات هوش مصنوعی و یادگیری ماشینی وجود دارد، اما این اصطلاحات اغلب به جای یکدیگر استفاده میشوند.
اسکات زولدی، مدیر ارشد تجزیه و تحلیل FICO، در اوایل امسال در یک نشریه هوش مصنوعی نوشت، استفاده از بلاک چین قابلیت حسابرسی را ممکن میکند و مدل و اعتماد شرکتی را تقویت میکند. نکته مهم این است که بلاک چین مسیری از تصمیم گیری را فراهم میکند. در واقع بلاکچین نشان میدهد که آیا یک متغیر قابل قبول است، آیا سوگیری را در مدل وارد میکند یا اینکه آیا متغیر به درستی استفاده میشود…. و کل مراحل ساخت نمونهها، اشتباهات، اصلاحات و پیشرفتهایشان را ثبت میکند. زلدی گفت که ابزارهای هوش مصنوعی باید به خوبی درک شوند و برای آینده باید منصفانه، عادلانه و شفاف باشند.
جداسازی حقیقت از دروغ
برخی پیشبینی میکنند که دستگاههایی مانند ChatGPT ممکن است تأثیر مخربی بر رسانههای اجتماعی و پلتفرمهای خبری داشته باشند، بهعنوان مثال، تشخیص مصنوعات از واقعیت را دشوار میکند.
این یکی از مکانهایی است که بلاک چین میتواند در پلتفرمهای نوظهور بسیار مفید باشد و به طور مثال میتوان برای اثبات اینکه شخص X در یک تاریخ/زمان خاص Y گفته است یا خیر استفاده شود.
در واقع، یک بلاک چین میتواند به ایجاد نوعی چارچوب برای پاسخگویی کمک کند. به عنوان مثال، افراد و سازمانها میتوانند به عنوان منابع قابل اعتماد ظاهر شوند.
بلاک چین میتواند برای ردیابی دادهها، آموزش، آزمایش، ممیزی و رویدادها به گونهای استفاده شود که اطمینان حاصل شود که طرف نمیتواند برخی از رویدادهای رخ داده را تغییر دهد.
با این حال، همه موافق نیستند که بلاک چین میتواند به مشکلات ایجاد شده به وسیله هوش مصنوعی را برطرف کند. رومن بک، استاد دانشگاه فناوری اطلاعات کپنهاگ و رئیس مرکز بلاک چین اروپا، به مجله میگوید: «من تا حدودی شک دارم که بلاک چین را میتوان به عنوان پادزهری برای هوش مصنوعی در نظر گرفت. ما امروز با چالشهایی در ردیابی آنچه که قراردادهای هوشمند واقعاً انجام میدهند، داریم و حتی اگر بلاک چین شفاف باشد، حسابرسی برخی از فعالیتها سخت است.»
در جاهای دیگر، کمیسیون اروپا به دنبال ایجاد «فضای فراآتلانتیک برای #هوش مصنوعی قابل اعتماد» بوده است. اما وقتی از یکی از مقامات کمیسیون اروپا پرسیده شد که آیا فناوری بلاک چین میتواند به جبران شفافیت هوش مصنوعی کمک کند، تردید داشت و به مجله گفت:
بلاک چین ردیابی منابع داده را امکانپذیر میکند و از حریم خصوصی افراد محافظت میکند، اما به خودی خود مشکل جعبه سیاه را در شبکههای عصبی هوش مصنوعی برطرف نمیکند. بلاکچین به سیستمهای هوش مصنوعی کمک نمیکند تا توضیحاتی درباره چگونگی و چرایی تصمیمگیری ارائه دهند.
وقتی الگوها دیوانه میشوند
شاید بلاک چین نتواند هوش مصنوعی را «نجات دهد»، اما همچنان راههایی وجود دارد که این دو فناوری میتوانند یکدیگر را تقویت کنند. محتملترین حوزهای که بلاک چین میتواند به هوش مصنوعی کمک کند، جنبه حسابرسی است. اگر میخواهیم از هوش مصنوعی برای تقلب یا شرکت در هر فعالیت غیرقانونی دیگری جلوگیری کنیم، میتوانیم برای ثبت نتایج هوش مصنوعی در دفتر کل درخواست کنیم.
وسایل نقلیه رانندگی خودران را در نظر بگیرید که با فناوری هوش مصنوعی توسعه یافتهاند که در آن حسگرها، الگوریتمها و زنجیره بلوکی یک سیستم عامل مستقل برای ارتباطات و هماهنگی بین ماشینی را فراهم میکنند. ممکن است هنوز نتوانیم توضیح دهیم که هوش مصنوعی چگونه تصمیم گرفته است، اما میتوانیم مسئولیتپذیری و در نتیجه حاکمیت را تضمین کنیم.» یعنی، بلاک چین میتواند به ردیابی اینکه چه کسی یا چه کسی واقعاً مقصر بوده است، در زمانی که «الگو دیوانه شد» کمک کند.
با استفاده از بلاک چین، ممکن است بتوان یک رکورد شفاف و بدون دستکاری از دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی ایجاد کرد. با این حال، بلاک چین به خودی خود به تشخیص و کاهش سوگیری که چالش برانگیز بوده و هنوز یک سوال تحقیقاتی باز است، نمیپردازد.
پیادهسازی بلاک چین برای ردیابی مدلسازی هوش مصنوعی
در بخش شرکتی، بسیاری از شرکتها هنوز برای دستیابی به هوش مصنوعی «قابل اعتماد» در تلاش هستند. FICO و Corinium اخیراً حدود ۱۰۰ شرکت خدمات مالی آمریکای شمالی را مورد بررسی قرار دادند و دریافتند که ۴۳ درصد از آنها با ساختارهای مدیریتی هوش مصنوعی رابطه خوبی ندارند. در همان زمان، تنها ۸ درصد گزارش دادند که استراتژیهای هوش مصنوعی آنها «با استانداردهای توسعه مدل به طور مداوم مقیاسبندی شدهاند».
FICO که در سال ۱۹۵۶ با عنوان Fair، Isaac and Company تأسیس شد، پیشگام در استفاده از تجزیه و تحلیل، پیشبینی و علم داده برای تصمیم گیریهای تجاری عملیاتی بوده است. این شرکت مدلهای هوش مصنوعی میسازد که به کسبوکارها در مدیریت ریسک، مبارزه با تقلب و بهینهسازی عملیات کمک میکند.
زولدی در پاسخ به این سوال که چگونه این شرکت در سال ۲۰۱۷ از یک بلاک چین مجاز اتریوم برای کارهای تحلیلی خود استفاده کرد، توضیح داد که در آن زمان، چیزی در حدود ۷۰ تا ۸۰ درصد از تمام مدلهای هوش مصنوعی در حال توسعه هرگز به تولید نرسید.
یکی از مشکلات کلیدی این بود که دانشمندان داده، حتی در یک سازمان، به روشهای مختلف مدل میساختند. بسیاری نیز پس از تکمیل مدلها در بررسیهای حاکمیتی شکست خوردند. یک آزمایش تعقیبی ممکن است نشان دهد که یک ابزار مبتنی بر هوش مصنوعی برای کشف کلاهبرداری، ممکن است به عنوان مثال، به طور ناخواسته علیه گروههای قومی خاص تبعیض ایجاد کند.
FICO شروع به توسعه یک استاندارد مدیریت مسئولیتپذیر هوش مصنوعی کرد که از یک بلاک چین برای اجرای آن استفاده میکرد. توسعهدهندگان باید از قبل از الگوریتمهایی که ممکن است استفاده شوند، پروتکلهای آزمایش اخلاقی که باید دنبال شوند، آستانههای مدلهای بیطرفانه و سایر فرآیندهای مورد نیاز مطلع شوند.
در همین حال، بلاک چین کل سفر را در توسعه هر مدل، از جمله خطاها، اصلاحات و نوآوریها ثبت میکند. بنابراین، برای هر دانشمندی که مدلی را توسعه میدهد، دیگری کار را بررسی میکند و سومی تأیید میکند که همه آنها به درستی انجام شده است.
مسئولیت اخلاقی و قانونی
توسعه دهندگان تجاری میتوانند به تجربیاتی مانند FICO توجه کنند، زیرا رهبران سیاسی به وضوح متوجه خطرات ارائه شده توسط هوش مصنوعی هستند. کامالا هریس، معاون رئیسجمهوری ایالات متحده در بیانیهای گفت: بخش خصوصی مسئولیت اخلاقی و قانونی برای تضمین ایمنی و امنیت محصولات خود دارد. هر شرکتی برای محافظت از مردم آمریکا باید قوانین موجود را رعایت کند.
نگرانیها نیز جهانی است. برای اطمینان از سودمندی هوش مصنوعی برای جامعه، به یک رویکرد دو جانبه نیاز است. در درجه اول، تحقیقات بیشتر در زمینه هوش مصنوعی برای بهبود فناوری، شفافیت، قابلیت فهم و افزایش دقت، ضروری است. در درجه دوم، مقررات مناسبی برای مدلهای هوش مصنوعی باید ایجاد شود.
بخش خصوصی باید مزایای خودتنظیمی را بسنجید. این میتواند برای توسعه دهندگان یک سازمان یک مزیت باشد. اخلاق در نحوه ساخت مدلها و استانداردهای مورد استفاده اغلب مشخص نیست.
سازندگان دستگاههای هوش مصنوعی نمیخواهند به مردم آسیب برسانند، اما اغلب ابزارهای لازم برای اطمینان از اینکه این اتفاق نمیافتد در اختیار آنها قرار نمیگیرد. یک بلاک چین میتواند کمک کند.
"شما با کارشناسان اعتقاد دارند که آنقدر باهوش هستند که بتوانند این فناوری را تولید کنند اما آنقدر باهوش نیستند که بتوانند آن را تنظیم کنند، بفهمند یا توضیح دهند.
در مجموع، ظرفیت بلاک چین برای پشتیبانی از یک هوش مصنوعی مسئول هنوز به طور گسترده شناخته نشده است، اما به زودی ممکن است تغییر کند. برخی، مانند آنتونی دی، حتی روی آن شرط میبندند: «مطمئن نیستم که بلاک چین واقعاً جهان را نجات دهد، اما مطمئن هستم که میتواند هوش مصنوعی را نجات دهد».