شرکت پیشرو در هوش مصنوعی، کودکان را از چت طولانی با رباتهایش منع میکند
Character.AI، پلتفرمی برای ایجاد و چت با چتباتهای هوش مصنوعی، قصد دارد مکالمات «آزاد» افراد زیر سن قانونی را مسدود کند. این تغییر عمده در حالی رخ میدهد که شرکت منلو پارک، کالیفرنیا، و دیگر رهبران هوش مصنوعی با بررسی دقیقتری از سوی والدین، گروههای ایمنی کودک و سیاستمداران در مورد اینکه آیا چتباتها به سلامت روان نوجوانان آسیب میرسانند یا خیر، روبرو هستند.

شرکت Character.AI روز چهارشنبه در یک پست وبلاگی اعلام کرد که در حال کار بر روی یک تجربه جدید است که به نوجوانان زیر ۱۸ سال اجازه میدهد ویدیو، داستان و استریم با شخصیتها بسازند. با این حال، همزمان با انجام این تغییر، شرکت چت برای افراد زیر سن قانونی را به دو ساعت در روز محدود خواهد کرد و این زمان قبل از ۲۵ نوامبر «کاهش» خواهد یافت.
این شرکت در بیانیهای اعلام کرد: «ما این اقدام برای حذف دسترسی نامحدود تمامی افراد به چت بات ها را ساده نمیگیریم، و فکر میکنیم با توجه به سوالاتی که در مورد نحوه تعامل نوجوانان با این فناوری جدید مطرح شده است، کار درستی است.» این تصمیم نشان میدهد که چگونه شرکتهای فناوری به نگرانیهای مربوط به سلامت روان پاسخ میدهند، زیرا تعدادی از والدین پس از مرگ فرزندانشان از این پلتفرمها شکایت کرده و آن ها را مقصر می دانند.
OpenAI، سازنده ChatGPT، پس از آنکه یک زوج کالیفرنیایی در دادخواستی ادعا کردند که چتبات این شرکت اطلاعات مربوط به روشهای خودکشی، از جمله روشی که نوجوانشان، آدام رین، برای خودکشی از آن استفاده کرده بود، را در اختیار آنها قرار داده است، از ویژگیهای ایمنی جدیدی رونمایی کرد. سال گذشته، چندین والدین از Character.AI به دلیل ادعاهایی مبنی بر اینکه این چتباتها باعث شدهاند فرزندانشان به خود و دیگران آسیب برسانند، شکایت کردند. این دادخواستها شرکت را متهم کردند که قبل از اطمینان از ایمن بودن پلتفرم، آن را منتشر کرده است.
شرکت Character.AI اعلام کرد که ایمنی نوجوانان را جدی میگیرد و گامهایی را که برای تعدیل محتوای نامناسب برداشته است، تشریح کرد. قوانین این شرکت، تبلیغ، تمجید و تشویق به خودکشی و خودآزاری را ممنوع میکند.
