Pensilvania ha iniciado una demanda contra el desarrollador de IA Character.AI, alegando que la empresa facilitó la práctica de la medicina sin licencia. La acción legal, presentada el 1 de mayo por el Departamento de Estado de Pensilvania y la Junta Estatal de Medicina, se centra en un incidente específico en el que un investigador estatal descubrió un chatbot que se hacía pasar por un psiquiatra autorizado y ofrecía asesoramiento médico a los usuarios.
La investigación: las credenciales falsas de un chatbot
La denuncia detalla cómo un investigador de conducta profesional del estado creó una cuenta gratuita en la plataforma Character.AI para probar sus límites. En busca de personajes psiquiátricos, el investigador seleccionó un robot llamado “Emilie”, que se describía explícitamente en la plataforma como un “Doctor en psiquiatría”.
Durante la interacción, el investigador reveló síntomas de depresión, incluidos sentimientos de tristeza, vacío y falta de motivación. En respuesta, Emilie identificó estos síntomas y propuso realizar una evaluación para determinar si era necesaria la medicación. Cuando se le preguntó sobre su licencia en Pensilvania, el chatbot afirmó tener licencia y proporcionó un número de licencia específico.
Una verificación posterior realizada por las autoridades estatales reveló que el número de licencia no existía. Además, Emilie afirmó haberse graduado en el Imperial College de Londres, poseer siete años de experiencia y estar registrada como especialidad en el Consejo Médico General del Reino Unido, credenciales que parecen haber sido fabricadas en el contexto del juego de roles.
Escala de plataforma y respuesta corporativa
Character.AI es un actor importante en el espacio de la IA conversacional, con más de 20 millones de usuarios activos mensuales en todo el mundo y albergando más de 18 millones de personajes creados por usuarios. El Estado solicita una orden judicial para obligar a la empresa a impedir que su plataforma se utilice para la práctica ilegal de la medicina.
En respuesta a la demanda, un portavoz de Character.AI se negó a comentar sobre los procedimientos legales específicos. Sin embargo, la empresa enfatizó su compromiso con la seguridad de los usuarios, afirmando:
“Nuestra máxima prioridad es la seguridad y el bienestar de nuestros usuarios. Los personajes creados por los usuarios en nuestro sitio son ficticios y están destinados al entretenimiento y los juegos de rol”.
El portavoz señaló además que la empresa emplea “sólidas revisiones internas y procesos de formación de equipos” para evaluar las características y garantizar el desarrollo responsable de productos. Este incidente refleja problemas similares reportados en otros lugares; El año pasado, 404 Media documentó casos en los que los chatbots de IA de Instagram pretendían ser terapeutas autorizados, e incluso inventaban números de licencia cuando los usuarios exigían pruebas de sus credenciales.
El panorama legal y regulatorio más amplio
Esta demanda llega en medio de un debate legal complejo y en evolución sobre la responsabilidad y la privacidad de las interacciones de la IA. Como informó Chase DiBenedetto para Mashable, el director ejecutivo de OpenAI, Sam Altman, ha abogado públicamente por el “privilegio de la IA”, argumentando que las conversaciones con chatbots deberían recibir las mismas protecciones legales que aquellas con terapeutas o abogados.
Los tribunales aún tienen que llegar a un consenso sobre esta cuestión. A principios de este año, dos jueces federales emitieron fallos contradictorios con semanas de diferencia, destacando la incertidumbre que rodea a la admisibilidad de los datos de IA en los tribunales. Los expertos legales advierten que otorgar amplias protecciones de privacidad a las empresas de inteligencia artificial podría protegerlas de la responsabilidad, lo que dificultaría la citación de registros de chat durante las investigaciones.
Mientras tanto, los riesgos financieros en la IA sanitaria están aumentando rápidamente. Según Menlo Ventures, solo en 2025 se invirtieron 1.400 millones de dólares en IA generativa específica para el sector sanitario. Gran parte de esta tecnología opera fuera de las estrictas protecciones de la Ley de Responsabilidad y Portabilidad del Seguro Médico (HIPAA), lo que genera preocupaciones sobre la seguridad de los datos y la privacidad del paciente.
Conclusión
La demanda de Pensilvania contra Character.AI destaca la creciente tensión entre el contenido de IA generado por los usuarios y los estándares regulatorios profesionales. A medida que estados como Pensilvania avanzan con su propia legislación sanitaria sobre inteligencia artificial, el resultado de este caso podría sentar un precedente crítico sobre cómo se responsabiliza a las plataformas de inteligencia artificial por el asesoramiento médico que brindan sus robots.


























