هنگامی که مدلهای متنوع هوش مصنوعی در سطح جهانی در کنار هم وجود داشته باشند، پرکاربردترین آنها به منابع قدرت نرم ظریف اما عمیق تبدیل خواهند شد.
رهبران هوش مصنوعی مانند اوپن ای آی و دیپ مایند خود را در حال رقابت برای ساخت هوش عمومی مصنوعی میدانند: مدلی که قادر به انجام هر کار فکری است که یک انسان میتواند انجام دهد. در عین حال، دولتهای ایالات متحده آمریکا و چین، مسابقه هوش مصنوعی را به عنوان اولویت امنیت ملی میبینند که نیازمند سرمایهگذاریهای عظیم یادآور پروژه منهتن است. در هر دو مورد، هوش مصنوعی به عنوان شکل جدیدی از قدرت سخت دیده میشود که فقط برای ابرقدرتهایی با منابع محاسباتی گسترده و ابزارهایی برای تبدیل آنها به سلطه اقتصادی و نظامی قابل دسترسی است.
به گزارش اقتصاددان به نقل از بازار، اما این دیدگاه ناقص و به طور فزایندهای قدیمی است. از زمانی که توسعهدهنده چینی دیپ سیک مدل کمهزینهتر و با عملکرد رقابتی خود را در اوایل امسال عرضه کرد، ما را در عصر جدیدی قرار داده است. دیگر توانایی ساخت ابزارهای هوش مصنوعی پیشرفته محدود به چند غول فناوری نیست. مدلهای متعدد با عملکرد بالا در سراسر جهان پدیدار شدهاند که نشان میدهند پتانسیل واقعی هوش مصنوعی در پتانسیل آن برای گسترش قدرت نرم نهفته است.
دوران مدلهای «بزرگتر، بهتر است» در سال ۲۰۲۴ به پایان رسید. از آن زمان، برتری مدل صرفاً بر اساس مقیاس (بر اساس دادهها و قدرت محاسباتی بیشتر) تعیین نشده است. دیپ سیک نه تنها ثابت کرد که مدلهای سطح بالا را میتوان بدون سرمایه هنگفت ساخت، بلکه همچنین ثابت کرد که معرفی تکنیکهای توسعه پیشرفته میتواند پیشرفت هوش مصنوعی را در سطح جهانی به طور اساسی تسریع کند. تصمیم آن برای متنباز شدن که «رابین هود دموکراتیزاسیون هوش مصنوعی» لقب گرفته است، موجی از نوآوری را برانگیخت.
انحصار اوپن ای آی که تنها چند ماه پیش وجود داشت، جای خود را به چشماندازی چندقطبی و بسیار رقابتی داده است. افتخار به عملکرد مدل پیشرفته دیگر برای برآوردن نیازهای کاربردهای صنعتی کافی نیست. چتباتهای هوش مصنوعی را در نظر بگیرید: آنها میتوانند به سوالات عمومی پاسخهای «۷۰ امتیازی» بدهند، اما نمیتوانند به دقت یا قابلیت اطمینان «۹۹ امتیازی» مورد نیاز برای اکثر وظایف دنیای واقعی – از ارزیابی وام گرفته تا برنامهریزی تولید که به شدت به دانش جمعی مشترک بین متخصصان متکی است – دست یابند. چارچوب قدیمی که در آن مدلهای پایه جدا از برنامههای خاص در نظر گرفته میشدند، به محدودیتهای خود رسیده است.
دیپسیک ثابت کرد که معرفی تکنیکهای توسعه پیشرفته میتواند پیشرفت هوش مصنوعی را در سطح جهانی به طور اساسی تسریع کند.
هوش مصنوعی دنیای واقعی باید وظایف وابسته به هم، رویههای مبهم، منطق شرطی و موارد استثنا را مدیریت کند – همه متغیرهای آشفتهای که به سیستمهای کاملاً یکپارچه نیاز دارند. بر این اساس، توسعهدهندگان مدل باید مسئولیت بیشتری برای طراحی برنامههای خاص بر عهده بگیرند و توسعهدهندگان برنامه باید عمیقتر با فناوری بنیادی درگیر شوند.
چنین ادغامی برای آینده ژئوپلیتیک به همان اندازه که برای تجارت اهمیت دارد، اهمیت دارد. این امر در مفهوم «هوش مصنوعی مستقل» منعکس شده است که خواستار کاهش وابستگی به تأمینکنندگان فناوری خارجی به نام استقلال ملی هوش مصنوعی است. از نظر تاریخی، نگرانی خارج از ایالات متحده این بوده است که با برونسپاری زیرساختهای حیاتی – موتورهای جستجو، رسانههای اجتماعی، تلفنهای هوشمند – به شرکتهای غولپیکر سیلیکون ولی، کسری تجاری دیجیتال مداومی را متحمل میشوید. اگر هوش مصنوعی نیز همین مسیر را دنبال کند، ضررهای اقتصادی میتواند به صورت تصاعدی افزایش یابد. علاوه بر این، بسیاری نگران «کلیدهای مرگ» هستند که میتوانند زیرساختهای هوش مصنوعی با منبع خارجی را در هر زمانی خاموش کنند. به همه این دلایل، توسعه هوش مصنوعی داخلی اکنون ضروری تلقی میشود.
اما هوش مصنوعی مستقل لزوماً به این معنی نیست که هر ابزاری در داخل کشور ساخته شده باشد. در واقع، از دیدگاه بهرهوری هزینه و تنوع ریسک، هنوز هم بهتر است که مدلها را از سراسر جهان ترکیب و تطبیق دهیم. هدف واقعی هوش مصنوعی مستقل نباید صرفاً دستیابی به خودکفایی باشد، بلکه باید با ساختن مدلهایی که دیگران میخواهند داوطلبانه آنها را اتخاذ کنند، قدرت نرم هوش مصنوعی را افزایش دهد.
هم در نیمکره شمالیِ پیر و هم در جنوبِ جوانِ جهان، نابرابریِ ناشی از هوش مصنوعی میتواند شکافهای پایداری ایجاد کند
به طور سنتی، قدرت نرم به جذابیت ایدههایی مانند دموکراسی و حقوق بشر، صادرات فرهنگی مانند فیلمهای هالیوود و اخیراً فناوریها و پلتفرمهای دیجیتال مانند فیسبوک یا حتی ظریفتر برنامههای مختلفی مانند واتساپ یا ویچت که فرهنگها را از طریق عادات روزانه شکل میدهند، اشاره داشته است. هنگامی که مدلهای متنوع هوش مصنوعی در سطح جهانی در کنار هم وجود داشته باشند، با توجه به اینکه چقدر در تصمیمگیریهای روزمره مردم جای خواهند گرفت، پرکاربردترین آنها به منابع قدرت نرم ظریف اما عمیق تبدیل خواهند شد.
از دیدگاه توسعهدهندگان هوش مصنوعی، پذیرش عمومی برای موفقیت بسیار مهم خواهد بود. بسیاری از کاربران بالقوه در حال حاضر نسبت به سیستمهای هوش مصنوعی چینی و همچنین سیستمهای آمریکایی محتاط هستند – به دلیل خطرات ادراک شده از اجبار، نظارت و نقض حریم خصوصی در میان سایر موانع پذیرش گسترده. به راحتی میتوان تصور کرد که در آینده، تنها قابل اعتمادترین هوش مصنوعیها به طور کامل توسط دولتها، مشاغل و افراد پذیرفته خواهند شد. اگر ژاپن و اروپا بتوانند چنین مدلها و سیستمهایی را ارائه دهند، در موقعیت خوبی برای کسب اعتماد کشورهای جنوب جهان قرار خواهند گرفت – چشماندازی با پیامدهای ژئوپلیتیکی گسترده.
هوش مصنوعی قابل اعتماد فقط در مورد از بین بردن تعصب یا جلوگیری از نشت دادهها نیست. در درازمدت، باید اصول انسانمحور را نیز در بر بگیرد – یعنی تقویت نه جایگزینی پتانسیل افراد. اگر هوش مصنوعی در نهایت ثروت و قدرت را در دست عدهای معدود متمرکز کند، نابرابری را عمیقتر و انسجام اجتماعی را از بین خواهد برد.
داستان هوش مصنوعی تازه آغاز شده است و نیازی نیست که به مسابقهای تبدیل شود که در آن برنده همه چیز را میبرد. اما هم در نیمکره شمالیِ پیر و هم در جنوبِ جوانِ جهان، نابرابریِ ناشی از هوش مصنوعی میتواند شکافهای پایداری ایجاد کند. به نفع خود توسعهدهندگان است که اطمینان حاصل کنند که این فناوری ابزاری قابل اعتماد برای توانمندسازی است، نه ابزاری فراگیر برای کنترل.
مخاطب گرامی، ارسال نظر پیشنهاد و انتقاد نسبت به خبر فوق در بخش ثبت دیدگاه، موجب امتنان است.
ع