عصر قدرت نرم هوش مصنوعی

هنگامی که مدل‌های متنوع هوش مصنوعی در سطح جهانی در کنار هم وجود داشته باشند، پرکاربردترین آنها به منابع قدرت نرم ظریف اما عمیق تبدیل خواهند شد.

رهبران هوش مصنوعی مانند اوپن ای آی و دیپ مایند خود را در حال رقابت برای ساخت هوش عمومی مصنوعی می‌دانند: مدلی که قادر به انجام هر کار فکری است که یک انسان می‌تواند انجام دهد. در عین حال، دولت‌های ایالات متحده آمریکا و چین، مسابقه هوش مصنوعی  را به عنوان اولویت امنیت ملی می‌بینند که نیازمند سرمایه‌گذاری‌های عظیم یادآور پروژه منهتن است. در هر دو مورد، هوش مصنوعی به عنوان شکل جدیدی از قدرت سخت دیده می‌شود که فقط برای ابرقدرت‌هایی با منابع محاسباتی گسترده و ابزارهایی برای تبدیل آنها به سلطه اقتصادی و نظامی قابل دسترسی است.

به گزارش اقتصاددان به نقل از بازار،  اما این دیدگاه ناقص و به طور فزاینده‌ای قدیمی است. از زمانی که توسعه‌دهنده چینی دیپ سیک مدل کم‌هزینه‌تر و با عملکرد رقابتی خود را در اوایل امسال عرضه کرد، ما را در عصر جدیدی قرار داده است. دیگر توانایی ساخت ابزارهای هوش مصنوعی پیشرفته محدود به چند غول فناوری نیست. مدل‌های متعدد با عملکرد بالا در سراسر جهان پدیدار شده‌اند که نشان می‌دهند پتانسیل واقعی هوش مصنوعی در پتانسیل آن برای گسترش قدرت نرم نهفته است.
دوران مدل‌های «بزرگتر، بهتر است» در سال ۲۰۲۴ به پایان رسید. از آن زمان، برتری مدل صرفاً بر اساس مقیاس (بر اساس داده‌ها و قدرت محاسباتی بیشتر) تعیین نشده است. دیپ سیک نه تنها ثابت کرد که مدل‌های سطح بالا را می‌توان بدون سرمایه هنگفت ساخت، بلکه همچنین ثابت کرد که معرفی تکنیک‌های توسعه پیشرفته می‌تواند پیشرفت هوش مصنوعی را در سطح جهانی به طور اساسی تسریع کند. تصمیم آن برای متن‌باز شدن که «رابین هود دموکراتیزاسیون هوش مصنوعی» لقب گرفته است، موجی از نوآوری را برانگیخت.
انحصار اوپن ای آی که تنها چند ماه پیش وجود داشت، جای خود را به چشم‌اندازی چندقطبی و بسیار رقابتی داده است. افتخار به عملکرد مدل پیشرفته دیگر برای برآوردن نیازهای کاربردهای صنعتی کافی نیست. چت‌بات‌های هوش مصنوعی را در نظر بگیرید: آن‌ها می‌توانند به سوالات عمومی پاسخ‌های «۷۰ امتیازی» بدهند، اما نمی‌توانند به دقت یا قابلیت اطمینان «۹۹ امتیازی» مورد نیاز برای اکثر وظایف دنیای واقعی – از ارزیابی وام گرفته تا برنامه‌ریزی تولید که به شدت به دانش جمعی مشترک بین متخصصان متکی است – دست یابند. چارچوب قدیمی که در آن مدل‌های پایه جدا از برنامه‌های خاص در نظر گرفته می‌شدند، به محدودیت‌های خود رسیده است.

دیپ‌سیک ثابت کرد که معرفی تکنیک‌های توسعه پیشرفته می‌تواند پیشرفت هوش مصنوعی را در سطح جهانی به طور اساسی تسریع کند.

هوش مصنوعی دنیای واقعی باید وظایف وابسته به هم، رویه‌های مبهم، منطق شرطی و موارد استثنا را مدیریت کند – همه متغیرهای آشفته‌ای که به سیستم‌های کاملاً یکپارچه نیاز دارند. بر این اساس، توسعه‌دهندگان مدل باید مسئولیت بیشتری برای طراحی برنامه‌های خاص بر عهده بگیرند و توسعه‌دهندگان برنامه باید عمیق‌تر با فناوری بنیادی درگیر شوند.
چنین ادغامی برای آینده ژئوپلیتیک به همان اندازه که برای تجارت اهمیت دارد، اهمیت دارد. این امر در مفهوم «هوش مصنوعی مستقل» منعکس شده است که خواستار کاهش وابستگی به تأمین‌کنندگان فناوری خارجی به نام استقلال ملی هوش مصنوعی است. از نظر تاریخی، نگرانی خارج از ایالات متحده این بوده است که با برون‌سپاری زیرساخت‌های حیاتی – موتورهای جستجو، رسانه‌های اجتماعی، تلفن‌های هوشمند – به شرکت‌های غول‌پیکر سیلیکون ولی، کسری تجاری دیجیتال مداومی را متحمل می‌شوید. اگر هوش مصنوعی نیز همین مسیر را دنبال کند، ضررهای اقتصادی می‌تواند به صورت تصاعدی افزایش یابد. علاوه بر این، بسیاری نگران «کلیدهای مرگ» هستند که می‌توانند زیرساخت‌های هوش مصنوعی با منبع خارجی را در هر زمانی خاموش کنند. به همه این دلایل، توسعه هوش مصنوعی داخلی اکنون ضروری تلقی می‌شود.
اما هوش مصنوعی مستقل لزوماً به این معنی نیست که هر ابزاری در داخل کشور ساخته شده باشد. در واقع، از دیدگاه بهره‌وری هزینه و تنوع ریسک، هنوز هم بهتر است که مدل‌ها را از سراسر جهان ترکیب و تطبیق دهیم. هدف واقعی هوش مصنوعی مستقل نباید صرفاً دستیابی به خودکفایی باشد، بلکه باید با ساختن مدل‌هایی که دیگران می‌خواهند داوطلبانه آنها را اتخاذ کنند، قدرت نرم هوش مصنوعی را افزایش دهد.

هم در نیمکره شمالیِ پیر و هم در جنوبِ جوانِ جهان، نابرابریِ ناشی از هوش مصنوعی می‌تواند شکاف‌های پایداری ایجاد کند

به طور سنتی، قدرت نرم به جذابیت ایده‌هایی مانند دموکراسی و حقوق بشر، صادرات فرهنگی مانند فیلم‌های هالیوود و اخیراً فناوری‌ها و پلتفرم‌های دیجیتال مانند فیس‌بوک یا حتی ظریف‌تر برنامه‌های مختلفی مانند واتس‌اپ یا وی‌چت که فرهنگ‌ها را از طریق عادات روزانه شکل می‌دهند، اشاره داشته است. هنگامی که مدل‌های متنوع هوش مصنوعی در سطح جهانی در کنار هم وجود داشته باشند، با توجه به اینکه چقدر در تصمیم‌گیری‌های روزمره مردم جای خواهند گرفت، پرکاربردترین آنها به منابع قدرت نرم ظریف اما عمیق تبدیل خواهند شد.
از دیدگاه توسعه‌دهندگان هوش مصنوعی، پذیرش عمومی برای موفقیت بسیار مهم خواهد بود. بسیاری از کاربران بالقوه در حال حاضر نسبت به سیستم‌های هوش مصنوعی چینی و همچنین سیستم‌های آمریکایی محتاط هستند – به دلیل خطرات ادراک شده از اجبار، نظارت و نقض حریم خصوصی در میان سایر موانع پذیرش گسترده. به راحتی می‌توان تصور کرد که در آینده، تنها قابل اعتمادترین هوش مصنوعی‌ها به طور کامل توسط دولت‌ها، مشاغل و افراد پذیرفته خواهند شد. اگر ژاپن و اروپا بتوانند چنین مدل‌ها و سیستم‌هایی را ارائه دهند، در موقعیت خوبی برای کسب اعتماد کشورهای جنوب جهان قرار خواهند گرفت – چشم‌اندازی با پیامدهای ژئوپلیتیکی گسترده.
هوش مصنوعی قابل اعتماد فقط در مورد از بین بردن تعصب یا جلوگیری از نشت داده‌ها نیست. در درازمدت، باید اصول انسان‌محور را نیز در بر بگیرد – یعنی تقویت نه جایگزینی پتانسیل افراد. اگر هوش مصنوعی در نهایت ثروت و قدرت را در دست عده‌ای معدود متمرکز کند، نابرابری را عمیق‌تر و انسجام اجتماعی را از بین خواهد برد.
داستان هوش مصنوعی تازه آغاز شده است و نیازی نیست که به مسابقه‌ای تبدیل شود که در آن برنده همه چیز را می‌برد. اما هم در نیمکره شمالیِ پیر و هم در جنوبِ جوانِ جهان، نابرابریِ ناشی از هوش مصنوعی می‌تواند شکاف‌های پایداری ایجاد کند. به نفع خود توسعه‌دهندگان است که اطمینان حاصل کنند که این فناوری ابزاری قابل اعتماد برای توانمندسازی است، نه ابزاری فراگیر برای کنترل.

مخاطب گرامی، ارسال نظر پیشنهاد و انتقاد نسبت به خبر فوق در بخش ثبت دیدگاه، موجب امتنان است.

 

ع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

10 + بیست =

پربازدیدترین ها