شرکت پیشرو در هوش مصنوعی، کودکان را از چت طولانی با ربات‌هایش منع می‌کند

Character.AI، پلتفرمی برای ایجاد و چت با چت‌بات‌های هوش مصنوعی، قصد دارد مکالمات «آزاد» افراد زیر سن قانونی را مسدود کند. این تغییر عمده در حالی رخ می‌دهد که شرکت منلو پارک، کالیفرنیا، و دیگر رهبران هوش مصنوعی با بررسی دقیق‌تری از سوی والدین، گروه‌های ایمنی کودک و سیاستمداران در مورد اینکه آیا چت‌بات‌ها به سلامت روان نوجوانان آسیب می‌رسانند یا خیر، روبرو هستند.

شرکت Character.AI روز چهارشنبه در یک پست وبلاگی اعلام کرد که در حال کار بر روی یک تجربه جدید است که به نوجوانان زیر ۱۸ سال اجازه می‌دهد ویدیو، داستان و استریم با شخصیت‌ها بسازند. با این حال، همزمان با انجام این تغییر، شرکت چت برای افراد زیر سن قانونی را به دو ساعت در روز محدود خواهد کرد و این زمان قبل از ۲۵ نوامبر «کاهش» خواهد یافت.

این شرکت در بیانیه‌ای اعلام کرد: «ما این اقدام برای حذف دسترسی نامحدود تمامی افراد به چت بات‌ ها را ساده نمی‌گیریم، و فکر می‌کنیم با توجه به سوالاتی که در مورد نحوه تعامل نوجوانان با این فناوری جدید مطرح شده است، کار درستی است.» این تصمیم نشان می‌دهد که چگونه شرکت‌های فناوری به نگرانی‌های مربوط به سلامت روان پاسخ می‌دهند، زیرا تعدادی از والدین پس از مرگ فرزندانشان از این پلتفرم‌ها شکایت کرده و آن ها را مقصر می دانند‌.

OpenAI، سازنده ChatGPT، پس از آنکه یک زوج کالیفرنیایی در دادخواستی ادعا کردند که چت‌بات این شرکت اطلاعات مربوط به روش‌های خودکشی، از جمله روشی که نوجوانشان، آدام رین، برای خودکشی از آن استفاده کرده بود، را در اختیار آنها قرار داده است، از ویژگی‌های ایمنی جدیدی رونمایی کرد. سال گذشته، چندین والدین از Character.AI به دلیل ادعاهایی مبنی بر اینکه این چت‌بات‌ها باعث شده‌اند فرزندانشان به خود و دیگران آسیب برسانند، شکایت کردند. این دادخواست‌ها شرکت را متهم کردند که قبل از اطمینان از ایمن بودن پلتفرم، آن را منتشر کرده است.

شرکت Character.AI اعلام کرد که ایمنی نوجوانان را جدی می‌گیرد و گام‌هایی را که برای تعدیل محتوای نامناسب برداشته است، تشریح کرد. قوانین این شرکت، تبلیغ، تمجید و تشویق به خودکشی و خودآزاری را ممنوع می‌کند.

برچسب ها:

نظری بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *