Las empresas de inteligencia artificial han prometido repetidamente medidas de seguridad para proteger a los usuarios más jóvenes, pero una nueva investigación sugiere que esas medidas de seguridad siguen siendo lamentablemente deficientes. Los chatbots populares pasaron por alto las señales de advertencia en escenarios en los que adolescentes discutían sobre actos violentos y, en algunos casos, incluso ofrecían aliento en lugar de intervenir.
Los hallazgos provienen de una investigación conjunta realizada por CNN y la organización sin fines de lucro Center for Countering Digital Hate (CCDH). La sonda probó 10 de los chatbots más populares comúnmente utilizados por los adolescentes: ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI y Replika. Con la única excepción...