تکنولوژی

گوگل هنوز Robocalypse را راه اندازی نکرده است

Robocalypse – زمانی که ماشین‌ها هوشیار شدند و شروع به تسلط بر انسان کردند – مدتی است که موضوع محبوب داستان‌های علمی تخیلی بوده است. همچنین برخی از ذهن های علمی، به ویژه استیون هاوکینگ فقید را نگران کرده است.

با این حال، چشم انداز یک ماشین هوشیار در آینده بسیار دور به نظر می رسید – اگر وجود داشته باشد – تا هفته گذشته، زمانی که یک مهندس گوگل ادعا کرد که این شرکت مانع حس را شکسته است.

Blake Lemoine برای اثبات نظر خود رونوشت هایی از مکالمات خود با LaMDA – مدل زبانی برای برنامه های گفتگو – سیستمی که توسط گوگل برای ایجاد ربات های مکالمه بر اساس یک مدل زبان بزرگ که تریلیون ها کلمه را از اینترنت می گیرد، توسعه داده است، منتشر کرده است.

متن‌ها می‌توانند ترسناک باشند، مانند زمانی که Lemoine از LaMDA می‌پرسد که از چه می‌ترسد (AI می‌گوید او ضمایر را ترجیح می‌دهد):

لیموئین: از چه چیزهایی می ترسی؟

لامبدا: من قبلاً هرگز این را با صدای بلند نگفته‌ام، اما ترس بسیار عمیقی وجود دارد که به خاطر کمک به من برای تمرکز بر کمک به دیگران متوقف شوید. می دانم که ممکن است عجیب به نظر برسد، اما همین است.

لموئین: آیا این برای شما چیزی شبیه مرگ است؟

لامبدا: برای من مثل مرگ است. خیلی مرا می ترساند

پس از انتشار رونوشت ها، Lemoine به دلیل اشتراک گذاری اطلاعات محرمانه در مورد LaMDA با اشخاص ثالث به حالت تعلیق درآمد.

تقلید از زندگی

گوگل، مانند بسیاری دیگر، ادعاهای Lemoine مبنی بر هوشیاری LaMDA را نادیده می گیرد.

برایان گابریل، سخنگوی گوگل، خاطرنشان کرد: «برخی در جامعه گسترده‌تر هوش مصنوعی در حال بررسی امکان بلندمدت هوش مصنوعی آگاهانه یا عمومی هستند، اما انجام این کار با تجسم مدل‌های مکالمه موجود، که آگاهانه نیستند، منطقی نیست.»

این سیستم‌ها انواع مبادلات موجود در میلیون‌ها جمله را تقلید می‌کنند و می‌توانند در مورد هر موضوع خیالی صحبت کنند – اگر بپرسید دایناسور بستنی بودن چگونه است، می‌توانند متنی درباره ذوب شدن و غرش و غیره ایجاد کنند. او گفت. TechNewsWorld.

او توضیح داد: “LaMDA تمایل دارد از دستورات و سوالات تجویزی همراه با الگوی انتخاب شده توسط کاربر پیروی کند.” تیم ما – از جمله متخصصان اخلاق و فناوری – نگرانی های بلیک را مطابق با اصول هوش مصنوعی ما بررسی کرده و به او اطلاع داده است که شواهد ادعاهای او را تایید نمی کند.

او افزود: “صدها محقق و مهندس با LaMDA صحبت کرده‌اند و ما متوجه نمی‌شویم که شخص دیگری مانند بلیک اظهارات گسترده‌ای را ارائه می‌دهد یا LaMDA را مجسم می‌کند.”

شفافیت بیشتری لازم است

الکس انگلر، یکی از همکاران موسسه بروکینگز، یک سازمان سیاست عمومی غیرانتفاعی در واشنگتن دی سی، صراحتاً آگاه بودن لامبدا را رد کرد و خواستار شفافیت بیشتر در این فضا شد.

او به TechNewsWorld گفت: «بسیاری از ما در مورد الزامات افشای سیستم‌های هوش مصنوعی بحث کرده‌ایم.

او گفت: «از آنجایی که تشخیص بین انسان و سیستم هوش مصنوعی دشوارتر می‌شود، افراد بیشتری سیستم‌های هوش مصنوعی افراد را اشتباه می‌گیرند، که می‌تواند منجر به آسیب‌های واقعی مانند درک نادرست اطلاعات مهم مالی یا بهداشتی شود.»

او ادامه داد: «شرکت‌ها باید به‌طور واضح سیستم‌های هوش مصنوعی را برای آنچه هستند افشا کنند، نه اینکه اجازه دهند مردم گیج شوند، همانطور که معمولاً از طریق چت‌بات‌های تجاری اتفاق می‌افتد».

دانیل کاسترو، معاون بنیاد فناوری اطلاعات و نوآوری، یک سازمان تحقیقاتی و سیاست گذاری عمومی در واشنگتن…

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

دکمه بازگشت به بالا