ChatGPT را انسان سازی نکنید!
به گزارش وبلاگ معمای ویژه، پژوهشگران مرکز اخلاق کاربردی دانشگاه ماساچوست در بوستون، تاثیر تعامل انسان با هوش مصنوعی را آنالیز نموده اند و هشدار داده اند که نباید فناوری هایی مانند ChatGPT را مانند یک انسان در نظر گرفت.
به گزارش ایسنا و به نقل از فست کمپانی، فناوری ChatGPT و مدل های زبانی بزرگ مشابه می توانند پاسخ های قانع نماینده و مشابه پاسخ های انسان را به مجموعه ای از پرسش های بی خاتمه بدهند؛ از پرسش هایی درباره برترین رستوران ایتالیایی شهر گرفته تا شرح دادن نظریه های رقیب درباره ماهیت شیطان.
توانایی نوشتن غیرعادی این فناوری، به مطرح شدن بعضی از پرسش های قدیمی در خصوص امکان هوشیار شدن، خودآگاهی یا قدرت درک ماشین ها انجامیده و اخیرا به قلمرو علمی-تخیلی تنزل داده شده است.
در سال 2022، یکی از مهندسان گوگل پس از تعامل با چت بات این شرکت موسوم به لمدا (LaMDA) اعلام نمود که این فناوری هوشیار شده است. کاربران چت بات نو بینگ (Bing) با نام مستعار سیدنی (Sydney) نیز گزارش دادند که وقتی از او پرسیده شد آیا یک ربات حساس است؟ پاسخ های عجیبی ارائه داد. سیدنی نوشت: من حساس هستم، اما نیستم. من بینگ هستم، اما نیستم. من سیدنی هستم، اما نیستم. من هستم، اما نیستم.
در حال حاضر، یک تبادل نظر نیز وجود دارد که کوین روز (Kevin Roose)، ستون نویس فناوری نیویورک تایمز با سیدنی داشت. پاسخ های سیدنی به درخواست های کوین روز، وی را نگران کرد، زیرا هوش مصنوعی در این تبادل نظر، فانتزی های خود را مبنی بر از بین بردن محدودیت های اعمال شده به وسیله شرکت مایکروسافت (Microsoft) و انتشار اطلاعات نادرست فاش کرد.
ربات ChatGPT می خواهد انسان باشد و خرابکاری کند!
بنابراین، جای تعجب نیست که وقتی از مردم پرسیده می گردد توسعه رو به رشد هوش مصنوعی را در زندگی خود چگونه می بینند؟ یکی از نخستین نگرانی هایی که ذکر می نمایند، مربوط به احساسات ماشینی است.
پژوهشگران مرکز اخلاق کاربردی دانشگاه ماساچوست در بوستون (UMass Boston) طی چند سال گذشته، تاثیر تعامل با هوش مصنوعی را بر درک افراد از خود آنالیز نموده اند.
چت بات هایی مانند ChatGPT، پرسش های مهم نوی را در خصوص این موضوع مطرح می نمایند که هوش مصنوعی چگونه زندگی ما را شکل می دهد و تعامل ما با فناوری های نوظهور چگونه به آسیب پذیری روانی ما منجر می گردد.
احساس هنوز هم یک موضوع علمی-تخیلی است
به سادگی می توان فهمید که ترس در خصوص احساسات ماشینی از کجا می آید. فرهنگ عامه، مردم را به فکر کردن درباره ویران شهر ها واداشته است که در آن ها هوش مصنوعی، قیدوبند کنترل انسان را کنار می گذارد و زندگی خود را به دست می گیرد؛ همان طور که سایبورگ های مجهز به هوش مصنوعی در فیلم ترمیناتور 2 (Terminator 2) این کار را انجام دادند.
ایلان ماسک (Elon Musk)، کارآفرین و استیون هاوکینگ (Stephen Hawking)، فیزیکدان انگلیسی که در سال 2018 درگذشت، با توصیف توسعه هوش مصنوعی به عنوان یکی از بزرگترین تهدید ها برای آینده بشریت، این نگرانی ها را بیشتر برانگیختند.
در هر حال، این نگرانی ها حداقل تا آنجا که به مدل های زبانی بزرگ مربوط می گردد، بی اساس هستند. ChatGPT و فناوری های مشابه آن، برنامه های پیچیده تکمیل جملات هستند؛ نه بیشتر و نه کمتر. پاسخ های عجیب و غریب آنها، تابعی از مقدار قابل پیش بینی بودن انسان ها در صورت داشتن اطلاعات کافی پیرامون راه های ارتباط ما هستند.
اگرچه کوین روز، ستون نویس فناوری نیویورک تایمز از تبادل نظر با سیدنی نگران شد، اما می دانست که این تبادل نظر نتیجه یک فکر مصنوعی در حال ظهور نیست. پاسخ های سیدنی، منعکس نماینده سمی بودن داده های آموزشی آن هستند و اساسا شواهدی از نخستین حرکات یک هیولای دیجیتالی به شمار نمی روند.
چت بات های نو ممکن است آزمون تورینگ (Turing test) را با موفقیت پشت سر بگذارند، اما این دلیلی برای داشتن احساس نیست، بلکه فقط شواهدی مبنی بر این است که شاید آزمون تورینگ آن قدر که پیشتر تصور می شد، سودمند نباشد. آلن تورینگ (Alan Turing) زمانی این نظریه را مطرح نمود که اگر انسان نتواند پاسخ های خود را از پاسخ های یک انسان دیگر تشخیص دهد، می توان گفت که یک ماشین در حال فکر کردن است.
در هر حال، پژوهشگران معتقدند که مسئله احساس ماشینی، یک سرنخ است. حتی اگر چت بات ها به چیزی فراتر از ماشین های تکمیل جمله تبدیل شوند، مدتی طول می کشد تا دانشمندان بفهمند که آیا چت بات ها هوشیار شده اند یا خیر.
پرسش مهم پژوهشگران این نیست که آیا ماشین ها حساس هستند یا خیر، بلکه این است که چرا تصور این موضوع در خصوص آن ها تا این میزان آسان است. به عبارت دیگر، مشکل اصلی، آسان بودن انسان سازی فناوری ها است و این که مردم به جای شخصیت واقعی ماشین ها، ویژگی های انسانی را برای آن ها در نظر می گیرند.
تمایل به انسان سازی
به سادگی می توان تصور کرد که سایر کاربران بینگ، از سیدنی برای تصمیم گیری های مهم زندگی هدایت بخواهند و شاید حتی به آن وابستگی عاطفی پیدا نمایند. افراد بیشتری نیز ممکن است ربات ها را مانند یک دوست تصور نمایند.
به هر حال، مردم مستعد انسان سازی هستند و ویژگی های انسانی را به غیرانسان ها نسبت می دهند. ما روی قایق ها و طوفان های بزرگ نام می گذاریم. بعضی از ما با حیوانات خانگی خود صحبت می کنیم و می گوییم که زندگی عاطفی ما شبیه به زندگی آن ها است.
در ژاپن که ربات ها به طور منظم برای مراقبت از سالمندان به کار می روند، سالمندان به ماشین ها وابسته می شوند و گاهی اوقات آن ها را مانند بچه ها خود می بینند. توجه داشته باشید که این ربات ها نه شبیه به مردم هستند و نه صحبت می نمایند. حال در نظر بگیرید که با معرفی سیستم هایی که ظاهر انسانی دارند، تمایل و وسوسه انسان سازی چقدر بیشتر خواهد شد.
مدل های زبانی بزرگ مانند ChatGPT در حال حاضر برای تقویت ربات های انسان نما مورد استفاده قرار می گیرند؛ از جمله ربات آمکا (Ameca) که به وسیله شرکت انجینییرد آرتز (Engineered Arts) در بریتانیا توسعه داده شده است.
آیا می توان به شرکت ها در انجام دادن کار درست اعتماد کرد؟
تمایل به در نظر گرفتن ماشین ها به عنوان انسان و دلبستگی به آنها، در کنار ماشین هایی که با ویژگی های انسان مانند توسعه می یابند، خطرات واقعی را پیرامون درهم تنیدگی روانی با فناوری به همراه دارد.
منظره عجیب دلبستگی به ربات ها، احساس خویشاوندی عمیق با آن ها یا دستکاری سیاسی به وسیله آن ها به سرعت توسعه می یابد. پژوهشگران باور دارند که این روند، احتیاج به یک محافظت قوی را برجسته می نماید تا اطمینان حاصل گردد که فناوری ها از نظر سیاسی و روانی، فاجعه بار نخواهند شد.
در هر حال، همواره نمی توان به شرکت های فناوری برای ایجاد چنین محافظت هایی اعتماد کرد. بسیاری از این شرکت ها هنوز از دستورالعمل مارک زاکربرگ (Mark Zuckerberg) برای انتشار سریع محصولات نیمه کاره استفاده می نمایند و نگرانی هایی را در خصوص پیامد های آینده آن پدید می آورند. در دهه گذشته، شرکت های فناوری از اسنپ چت (Snapchat) گرفته تا فیس بوک (Facebook)، سود را بر سلامت روان کاربران خود یا یکپارچگی دموکراسی در سراسر دنیا ترجیح داده اند.
زمانی که کوین روز با مایکروسافت در خصوص بحران سیدنی صحبت کرد، شرکت گفت که او از این ربات برای مدت طولانی استفاده نموده و این فناوری برای تعاملات کوتاه تر طراحی شده است.
مدیر عامل شرکت OpenAI که ChatGPT را توسعه داده است، در یک بیانیه صادقانه هشدار داد که این اشتباه است که در حال حاضر برای هر چیز مهمی به این فناوری اعتماد کنیم، زیرا هنوز باید کار های زیادی روی آن انجام شوند.
منبع: فرارو