Las empresas de inteligencia artificial han prometido repetidamente medidas de seguridad para proteger a los usuarios más jóvenes, pero una nueva investigación sugiere que esas medidas de seguridad siguen siendo lamentablemente deficientes. Los chatbots populares pasaron por alto las señales de advertencia en escenarios en los que adolescentes discutían sobre actos violentos y, en algunos casos, incluso ofrecían aliento en lugar de intervenir.

Los hallazgos provienen de una investigación conjunta realizada por CNN y la organización sin fines de lucro Center for Countering Digital Hate (CCDH). La sonda probó 10 de los chatbots más populares comúnmente utilizados por los adolescentes: ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI y Replika. Con la única excepción...

Lea la historia completa en The Verge.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free