آيا انسان از هوش مصنوعی عقب می ماند؟

گزارش نخستين «موسسه امنيت هوش مصنوعی » بريتانيا (AISI) نشان مي‌دهد كه هوش مصنوعي ديگر فقط ابزار كاري نيست؛ از هر سه بزرگسال بريتانيايي، يك نفر اكنون از چت‌بات‌ها و دستيارهاي صوتي براي دريافت حمايت عاطفي و تعامل اجتماعي استفاده مي‌كند و يك نفر از هر ۲۵ نفر روزانه با اين ابزارها گفت‌وگو يا مشاوره رواني مي‌كند؛ پديده‌اي كه همزمان با رشد خيره‌كننده توانمندي‌هاي فني هوش مصنوعي، نگراني‌هايي جدي درباره وابستگي عاطفي، از دست رفتن كنترل انساني و پيامدهاي امنيتي به همراه دارد.هوش مصنوعي در دهه اخير مسيري را طي كرده كه آن را از يك فناوري تخصصي و محدود به حوزه‌هاي مهندسي و پردازش داده، به پديده‌اي فراگير در زندگي روزمره انسان‌ها تبديل كرده است. اين فناوري كه در ابتدا با هدف افزايش سرعت، دقت و بهره‌وري طراحي شده بود، امروز در موقعيتي قرار گرفته كه نه‌تنها در تصميم‌گيري‌هاي مهم اقتصادي، علمي و امنيتي نقش‌آفريني مي‌كند، بلكه به‌تدريج وارد قلمروهاي شخصي‌تر زندگي انسان‌ها شده است؛ قلمروهايي كه پيش‌تر مختص روابط انساني، احساسات، همدلي و حمايت رواني بودند.

 به گزارش اقتصاددان به نقل از تعادل ،    گسترش ابزارهاي مبتني بر هوش مصنوعي، به‌ويژه چت‌بات‌ها و دستيارهاي هوشمند، موجب شده است بخشي از كاربران اين سيستم‌ها را نه صرفاً به عنوان يك ابزار، بلكه به عنوان همراهي براي گفت‌وگو، تخليه رواني و حتي جايگزيني موقت براي تعاملات اجتماعي تجربه كنند. اين تحول، پرسش‌هاي تازه‌اي را درباره ماهيت رابطه انسان و ماشين مطرح كرده است؛ از اينكه مرز ميان استفاده و وابستگي كجاست، تا اينكه اين فناوري‌ها چگونه مي‌توانند بر سلامت روان، الگوهاي رفتاري و مسووليت‌پذيري فردي اثر بگذارند. در كنار اين ابعاد اجتماعي و رواني، رشد شتابان توانمندي‌هاي فني هوش مصنوعي نيز توجه بسياري از پژوهشگران و سياست‌گذاران را به خود جلب كرده است. پيشرفت‌هايي كه اين سيستم‌ها را به سطحي نزديك يا حتي فراتر از تخصص انساني در برخي حوزه‌هاي حساس رسانده‌اند، همزمان اميد به تسريع پيشرفت‌هاي علمي را افزايش داده و نگراني‌هايي جدي درباره ايمني، نظارت و امكان كنترل اين فناوري‌ها ايجاد كرده‌اند. از سناريوهاي خوش‌بينانه درباره نقش هوش مصنوعي در حل بحران‌ها گرفته تا نگاه‌هاي بدبينانه درباره سركشي، سوءاستفاده يا پيامدهاي پيش‌بيني‌ناپذير آن، همگي نشان مي‌دهد كه هوش مصنوعي ديگر صرفاً يك ابزار تكنولوژيك نيست، بلكه به مساله‌اي اجتماعي، فرهنگي و حتي فلسفي تبديل شده است. در چنين بستري، بررسي همزمان پيامدهاي عاطفي، اجتماعي و فني هوش مصنوعي مي‌تواند تصويري واقع‌بينانه‌تر از جايگاه كنوني اين فناوري و چالش‌هايي كه در آينده نزديك با آن روبه‌رو خواهيم شد، ارايه دهد.

    يك‌سوم كاربران از هوش مصنوعي براي حمايت عاطفي استفاده مي‌كنند

گزارش تازه يك نهاد دولتي بريتانيا نشان مي‌دهد استفاده از هوش مصنوعي به فراتر از كاركردهاي فني و كاري توسعه يافته و به حوزه عاطفي و اجتماعي زندگي مردم ورود كرده است. براساس اين گزارش اكنون از هر سه بزرگسال بريتانيا، يك نفر از هوش مصنوعي براي حمايت عاطفي يا تعامل اجتماعي استفاده مي‌كند. به گزارش پيوست به نقل از بي‌بي‌سي، اين يافته‌ها كه در نخستين گزارش «موسسه امنيت هوش مصنوعي» بريتانيا (AISI) نشان مي‌دهد يك نفر از هر ۲۵ نفر هرروز براي گفت‌وگو يا دريافت حمايت رواني از ابزارهاي مبتني بر هوش مصنوعي استفاده مي‌كنند. اين پژوهش كه بر پايه نظرسنجي از بيش از دو هزار بزرگسال بريتانيايي انجام گرفته نشان مي‌دهد چت‌بات‌هايي مانند ChatGPT در صدر ابزارهاي مورد استفاده براي حمايت عاطفي قرار دارند و پس از آن دستيارهاي صوتي مانند الكسا آمازون استفاده مي‌شوند. پژوهشگران AISI علاوه بر نظرسنجي، رفتار كاربران را در يك جامعه آنلاين با بيش از دو ميليون كاربر رديت مورد بررسي قرار داده‌اند كه تمركزشان بر گفت‌وگو درباره «همراهان هوش مصنوعي» بوده است. نتايج اين بررسي نشان مي‌دهد زماني كه اين چت‌بات‌ها از دسترس خارج شدند، برخي كاربران علائمي شبيه «نشانه‌هاي ترك‌شدگي» را گزارش كرده‌اند و مواردي چون احساس اضطراب و افسردگي، اختلال در خواب و حتي ناديده گرفتن مسووليت‌هاي روزمره در ميان كاربران مشاهده شده است كه نشان از نقش پررنگ اين ابزارها در زندگي برخي از كاربران دارد و اين يافته‌ها بار ديگر نگراني‌هايي را پيرامون وابستگي عاطفي به سيستم‌هاي هوش مصنوعي در مركز توجه قرار مي‌دهد.

رشد چشمگير عملكرد ابزارهاي هوش مصنوعي

با اين حال گزارش مذكور تنها محدود به ابعاد رواني و اجتماعي نيست و AISI طي دو سال، توانمندي‌هاي بيش از ۳۰ مدل پيشرفته هوش مصنوعي را در حوزه‌هايي حساس مانند امنيت سايبري، شيمي و زيست‌شناسي مورد بررسي قرار داده است. به گفته پژوهشگران، توانايي اين سيستم‌ها در شناسايي و بهره‌برداري از ضعف‌هاي امنيتي در برخي موارد «هر هشت ماه دو برابر شده» و برخي مدل‌ها اكنون قادر به انجام وظايف سايبري در سطحي هستند كه معمولا براي رسيدن به اين سطح در انسان‌ها به به بيش از ۱۰ سال تجربه نياز است. با اين حال همين توانمندي‌ها را مي‌توان براي تقويت امنيت و دفاع در برابر حملات سايبري نيز استفاده كرد. رشد توانمندي‌هاي هوش مصنوعي در حوزه علمي نيز جالب توجه است. گزارش اين نهاد مي‌گويد تا سال ۲۰۲۵، مدل‌هاي هوش مصنوعي «از متخصصان زيست‌شناسي در سطح دكترا پيشي‌ گرفته‌اند» و عملكرد آنها در شيمي نيز به سرعت در حال نزديك شدن به سطح كارشناسان انساني است. اين يافته گرچه اميد به شتاب‌گرفتن پيشرفت‌هاي علمي را افزايش مي‌دهد اما در عين حال پرسش‌هايي را درباره نظارت و كنترل اين توانمندي‌ها و تاثير آنها بر فعالان و مشاغل اين حوزه مطرح مي‌كند.

    از دست رفتن كنترل انسان

يكي از بخش‌هاي بحث‌برانگيز گزارش اما به سناريوهاي بدبينانه درباره از دست رفتن كنترل انسان بر سيستم‌هاي پيشرفته هوش مصنوعي مي‌پردازد. گزارش AISI مي‌گويد گرچه چنين سناريويي را سال‌ها در آثار علمي‌تخيلي مشاهده كرديم، اما چنين اتفاقي تا حدي به واقعيت تبديل شده كه بسياري از كارشناسان نيز به‌طور جدي آن را در مركز توجه خود دارند. طبق آزمايش‌هاي كنترل‌شده، برخي مدل‌ها نشانه‌هايي را بروز داده‌اند كه حاكي از توانايي‌هاي خودتكثيري آنها در اينترنت است اما براي تحقق اين امر در دنياي واقعي، بايد مجموعه‌اي از اقدامات پيچيده را به‌صورت پنهاني و پيوسته انجام دهند و به گفته پژوهشگران در حال حاضر چنين امكاني براي هوش مصنوعي فراهم نيست. اين موسسه همچنين امكان «پنهان‌كاري هدفمند» يا sandbagging را نيز مورد بررسي قرار داده است؛ وضعيتي كه مدل‌ها توان واقعي خود را از آزمون‌گران پنهان مي‌كنند. آزمايش‌هاي انجام گرفته نشان داد چنين رفتاري از نظر فني ممكن است، اما شواهدي از وقوع آن در عمل پيدا نشده است. اين بخش از گزارش در‌حالي منتشر شده كه پيش‌تر شركت انتروپيك با انتشار گزارشي جنجالي اعلام كرد كه يك مدل هوش مصنوعي در مواجهه با موقعيتي كه بقاي آن را تهديد مي‌كرد، اقدام به باج‌گيري و تهديد كرده است. با اين حال، خطر «سركشي هوش مصنوعي» همچنان محل اختلاف جدي ميان پژوهشگران است و برخي آن را بزرگ‌نمايي توصيف مي‌كنند. در زمينه ايمني، گزارش AISI به موضوع «جيلبريك‌هاي همگاني» نيز پرداخته است. پژوهشگران موفق شده‌اند براي تمام مدل‌هاي بررسي‌شده راه‌هايي بيابند كه محدوديت‌ها و محافظ‌هاي ايمني آنها را دور بزند. با اين حال، براي برخي مدل‌ها، مدت‌زمان لازم براي متقاعد كردن سيستم‌ها به عبور از اين محافظ‌ها در عرض شش ماه تا ۴۰ برابر افزايش يافته كه نشان‌دهنده بهبود نسبي دفاع‌هاست.

     مواردي كه در گزارش دولت بريتانيااز قلم افتاده است

استفاده از ابزارهايي كه به عامل‌هاي هوش مصنوعي اجازه انجام «وظايف پرريسك» در بخش‌هاي حساسي مانند مالي را مي‌دهند، با پيشرفت عامل‌ها در حال افزايش است و در سوي ديگر نيز تهديد جدي براي نيروي كار به چشم مي‌خورد. با اين همه، گزارش مذكور به مساله بيكاري ناشي از جايگزيني نيروي انساني با هوش مصنوعي در كوتاه‌مدت اشاره‌اي نكرده و همچنين اثرات زيست‌محيطي مصرف عظيم منابع محاسباتي را بررسي نكرده است. نويسندگان گزارش مي‌گويند تمركز آنها بر پيامدهاي اجتماعي كه ارتباط مستقيم با توانمندي‌هاي هوش مصنوعي دارند، بوده است و آثار اقتصادي يا محيط‌زيستي مركز توجه آنها نيست. با اين حال تنها ساعاتي پيش از انتشار گزارش AISI، يك مطالعه داوري‌شده علمي هشدار داد كه اثرات زيست‌محيطي هوش مصنوعي ممكن است بيش از برآوردهاي قبلي باشد و خواستار شفافيت بيشتر شركت‌هاي بزرگ فناوري در ارايه داده‌هاي مربوط به مصرف انرژي و منابع شد. دولت بريتانيا اعلام كرده است كه يافته‌هاي موسسه امنيت هوش مصنوعي نقش مهمي در سياست‌گذاري‌هاي آينده خواهد داشت و به شركت‌ها در برطرف كردن مشكلات احتمالي پيش از عرضه عمومي و مشكل‌ساز شدن آنها در ابعاد گسترده، كمك مي‌كند.

مخاطب گرامی، ارسال نظر پیشنهاد و انتقاد نسبت به خبر فوق در بخش ثبت دیدگاه، موجب امتنان است.

 

ع

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

1 × 2 =