Um aplicativo de IA (Inteligência Artificial) sugeriu a um adolescente que ele matasse os próprios pais. O caso aconteceu no Texas (EUA).
Clique aqui para fazer parte da comunidade de OVALE no WhatsApp e receber notícias em primeira mão. E clique aqui para participar também do canal de OVALE no WhatsApp.
A mãe entrou na Justiça contra a empresa Character.ai, depois de ter descoberto que a IA havia feito essa sugestão ao jovem. Na ação, movida em conjunto com outra mãe, ela afirmou que o aplicativo expôs crianças e adolescentes a um produto inseguro.
O adolescente, que tem 17 anos, é diagnosticado no espectro autista. De acordo com os pais, eles notaram comportamentos "estranhos" do filho ao longo dos últimos meses. Além de se afastar da família, o menino perdeu 9 kg e passou a se cortar.
Ao tentar descobrir a origem do problema, a mãe olhou o celular dele e descobriu que o filho se comunicava com uma série de personagens fictícios por meio do aplicativo, que tornou-se popular nos EUA e também no Brasil.
*Com informações do jornal Extra.