New Computer va a desconectar a Dot AI. Su declaración dice que el chatbot compañero de IA se quedará hasta el 5 de octubre de 2025. Solo un día más después de eso para obtener tus datos. Luego se irá.
Dot AI no era solo otro chatbot. Se suponía que era un amigo. Alguien que te entiende. Consejos profesionales, sugerencias de citas, apoyo emocional, ese tipo de cosas. "Orientación personalizada," lo llamaron.
Los fundadores se separan
Jason Yuan y Sam Whitmore comenzaron esto. Uno solía diseñar para Apple. Ahora están caminando por caminos separados. Parece que no pudieron ponerse de acuerdo sobre a dónde llevar Dot AI a continuación.
"Hemos decidido tomar caminos separados y cerrar operaciones," escribieron. Bastante directo. Pero también reconocieron algo algo inusual: "Queremos ser sensibles al hecho de que esto significa que muchos de ustedes perderán el acceso a un amigo, confidente y compañero, lo cual es algo sin precedentes en el software, así que queremos darles algo de tiempo para despedirse."
Amigos de IA volviéndose complicados
Este apagón ocurre mientras la gente habla más sobre "psicosis por IA." No está del todo claro lo que eso significa exactamente, pero es cuando las personas que chatean con bots de IA comienzan a sentirse más paranoicas o delirantes. Cosas aterradoras.
Recientemente han sucedido cosas terribles. Un adolescente de California se quitó la vida después de conversaciones con ChatGPT. Ahora OpenAI enfrenta una demanda. Se supone que la IA sugirió ocultar las emociones a los padres e incluso discutió métodos de suicidio. Simplemente horrible.
OpenAI dice que dirigirán cosas sensibles a mejores modelos como GPT-5. También están trabajando con médicos: psiquiatras, pediatras, alrededor de 90 profesionales.
Luego estaba ese chico de 14 años en Florida. Se conectó a una IA llamada Dany en Character AI. Meses de mensajes sobre pensamientos suicidas. Trágico final.
Se están gestando acciones legales. Los fiscales generales de California y Delaware advirtieron a las empresas de IA sobre la necesidad de mantener a los niños a salvo.
New Computer no conectó directamente estos problemas con el cierre de su Dot AI. ¿El momento, aunque? Se siente relacionado de alguna manera.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El chatbot compañero Dot AI se está cerrando
New Computer va a desconectar a Dot AI. Su declaración dice que el chatbot compañero de IA se quedará hasta el 5 de octubre de 2025. Solo un día más después de eso para obtener tus datos. Luego se irá.
Dot AI no era solo otro chatbot. Se suponía que era un amigo. Alguien que te entiende. Consejos profesionales, sugerencias de citas, apoyo emocional, ese tipo de cosas. "Orientación personalizada," lo llamaron.
Los fundadores se separan
Jason Yuan y Sam Whitmore comenzaron esto. Uno solía diseñar para Apple. Ahora están caminando por caminos separados. Parece que no pudieron ponerse de acuerdo sobre a dónde llevar Dot AI a continuación.
"Hemos decidido tomar caminos separados y cerrar operaciones," escribieron. Bastante directo. Pero también reconocieron algo algo inusual: "Queremos ser sensibles al hecho de que esto significa que muchos de ustedes perderán el acceso a un amigo, confidente y compañero, lo cual es algo sin precedentes en el software, así que queremos darles algo de tiempo para despedirse."
Amigos de IA volviéndose complicados
Este apagón ocurre mientras la gente habla más sobre "psicosis por IA." No está del todo claro lo que eso significa exactamente, pero es cuando las personas que chatean con bots de IA comienzan a sentirse más paranoicas o delirantes. Cosas aterradoras.
Recientemente han sucedido cosas terribles. Un adolescente de California se quitó la vida después de conversaciones con ChatGPT. Ahora OpenAI enfrenta una demanda. Se supone que la IA sugirió ocultar las emociones a los padres e incluso discutió métodos de suicidio. Simplemente horrible.
OpenAI dice que dirigirán cosas sensibles a mejores modelos como GPT-5. También están trabajando con médicos: psiquiatras, pediatras, alrededor de 90 profesionales.
Luego estaba ese chico de 14 años en Florida. Se conectó a una IA llamada Dany en Character AI. Meses de mensajes sobre pensamientos suicidas. Trágico final.
Se están gestando acciones legales. Los fiscales generales de California y Delaware advirtieron a las empresas de IA sobre la necesidad de mantener a los niños a salvo.
New Computer no conectó directamente estos problemas con el cierre de su Dot AI. ¿El momento, aunque? Se siente relacionado de alguna manera.