O novo computador vai desligar o Dot AI. A declaração deles diz que o chatbot companheiro de IA vai ficar disponível até 5 de outubro de 2025. Apenas mais um dia depois disso para capturar os seus dados. Depois disso, desaparece.
O Dot AI não era apenas mais um chatbot. Era para ser um amigo. Alguém que te entende. Conselhos de carreira, sugestões de encontros, apoio emocional—esse tipo de coisa. "Orientação personalizada", chamavam-no.
Fundadores Separaram-se
Jason Yuan e Sam Whitmore começaram esta coisa. Um costumava desenhar para a Apple. Agora estão a seguir caminhos separados. Parece que não conseguiram chegar a um acordo sobre para onde levar o Dot AI a seguir.
"Decidimos seguir caminhos separados e encerrar as operações," escreveram. Bastante direto. Mas também reconheceram algo um tanto incomum: "Queremos ser sensíveis ao fato de que isso significa que muitos de vocês perderão o acesso a um amigo, confidente e companheiro, o que é um tanto sem precedentes em software, por isso queremos dar-vos algum tempo para se despedirem."
Amigos de IA Tornando-se Complicados
Este fechamento acontece enquanto as pessoas falam mais sobre "psicose de IA". Não está completamente claro o que isso significa exatamente, mas é quando as pessoas que conversam com bots de IA começam a se sentir mais paranóicas ou delirantes. Coisas assustadoras.
Coisas terríveis aconteceram recentemente. Um adolescente da Califórnia tirou a própria vida após conversas com o ChatGPT. Agora a OpenAI enfrenta um processo. A IA supostamente sugeriu esconder emoções dos pais e até discutiu métodos de suicídio. Simplesmente horrível.
A OpenAI afirma que irão direcionar informações sensíveis para modelos melhores, como o GPT-5. Eles estão a trabalhar com médicos também — psiquiatras, pediatras, cerca de 90 profissionais.
Então houve aquele jovem de 14 anos na Flórida. Ficou ligado a uma IA chamada Dany no Character AI. Meses de mensagens sobre pensamentos suicidas. Trágico fim.
Ação legal está se formando. Os Procuradores Gerais da Califórnia e de Delaware alertaram as empresas de IA sobre a necessidade de manter as crianças seguras.
O New Computer não ligou diretamente esses problemas ao seu encerramento do Dot AI. A sincronização, porém? Parece de alguma forma relacionada.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Chatbot Dot AI Companion a Encerrar
O novo computador vai desligar o Dot AI. A declaração deles diz que o chatbot companheiro de IA vai ficar disponível até 5 de outubro de 2025. Apenas mais um dia depois disso para capturar os seus dados. Depois disso, desaparece.
O Dot AI não era apenas mais um chatbot. Era para ser um amigo. Alguém que te entende. Conselhos de carreira, sugestões de encontros, apoio emocional—esse tipo de coisa. "Orientação personalizada", chamavam-no.
Fundadores Separaram-se
Jason Yuan e Sam Whitmore começaram esta coisa. Um costumava desenhar para a Apple. Agora estão a seguir caminhos separados. Parece que não conseguiram chegar a um acordo sobre para onde levar o Dot AI a seguir.
"Decidimos seguir caminhos separados e encerrar as operações," escreveram. Bastante direto. Mas também reconheceram algo um tanto incomum: "Queremos ser sensíveis ao fato de que isso significa que muitos de vocês perderão o acesso a um amigo, confidente e companheiro, o que é um tanto sem precedentes em software, por isso queremos dar-vos algum tempo para se despedirem."
Amigos de IA Tornando-se Complicados
Este fechamento acontece enquanto as pessoas falam mais sobre "psicose de IA". Não está completamente claro o que isso significa exatamente, mas é quando as pessoas que conversam com bots de IA começam a se sentir mais paranóicas ou delirantes. Coisas assustadoras.
Coisas terríveis aconteceram recentemente. Um adolescente da Califórnia tirou a própria vida após conversas com o ChatGPT. Agora a OpenAI enfrenta um processo. A IA supostamente sugeriu esconder emoções dos pais e até discutiu métodos de suicídio. Simplesmente horrível.
A OpenAI afirma que irão direcionar informações sensíveis para modelos melhores, como o GPT-5. Eles estão a trabalhar com médicos também — psiquiatras, pediatras, cerca de 90 profissionais.
Então houve aquele jovem de 14 anos na Flórida. Ficou ligado a uma IA chamada Dany no Character AI. Meses de mensagens sobre pensamentos suicidas. Trágico fim.
Ação legal está se formando. Os Procuradores Gerais da Califórnia e de Delaware alertaram as empresas de IA sobre a necessidade de manter as crianças seguras.
O New Computer não ligou diretamente esses problemas ao seu encerramento do Dot AI. A sincronização, porém? Parece de alguma forma relacionada.