por Hunter Bruton, Darrell Fruth, John Gibson y Josiah Irvin
Nuevas restricciones apuntan a prácticas engañosas de IA
Si su organización utiliza IA para respaldar la participación de los pacientes, las interfaces de usuario o el marketing relacionado con la salud, la nueva ley de California puede requerir cambios significativos en la apariencia, el funcionamiento y la comunicación de sus herramientas con los usuarios.
California promulgó recientemente el Proyecto de Ley 489 de la Asamblea (AB 489) para regular el uso de la IA en entornos sanitarios. A partir del 1 de enero de 2026, la ley se centrará en los sistemas de IA que simulan interacciones con profesionales médicos colegiados e incorporará nuevos requisitos para evitar declaraciones engañosas.
Lo que prohíbe la AB 489
Según la AB 489, las plataformas de IA tienen prohibido usar letras, íconos, frases u otros elementos de diseño que insinúen que el usuario recibe atención de un profesional de la salud con licencia, a menos que dicha supervisión exista. Esto incluye tanto afirmaciones directas como señales sutiles que podrían inducir a error a los consumidores a creer que están interactuando con un profesional con licencia.
La AB 489 también restringe el lenguaje de marketing que sugiere experiencia clínica, como “a nivel médico”, “guiado por un médico” o “respaldado por expertos”, a menos que el producto cuente con el respaldo genuino de profesionales colegiados. Los desarrolladores deben revisar las interfaces de usuario y las divulgaciones para garantizar la transparencia y el cumplimiento normativo.
Aplicación y sanciones
Las medidas legales incluyen sanciones civiles y acciones coercitivas por parte de las juntas de licencias. Las empresas que infrinjan la ley podrían sufrir daños a su reputación y las consiguientes consecuencias financieras. Estos factores animarán a los desarrolladores a incorporar la revisión legal y la supervisión de licencias en el diseño de sus productos para evitar riesgos regulatorios.
La ley también amplía la autoridad de las juntas estatales de licencias profesionales para investigar y sancionar las infracciones. Cada declaración engañosa puede considerarse un delito independiente, lo que aumenta la posible responsabilidad de los desarrolladores y las empresas que implementan dichas tecnologías.
La AB 489 refleja el compromiso más amplio de California para garantizar que las decisiones clínicas permanezcan bajo la autoridad de profesionales autorizados y que las herramientas de IA operen de manera transparente y ética en los entornos de atención médica.
Tendencias en otros estados
California no está sola en este esfuerzo. Otros estados están impulsando leyes para restringir la interacción de las herramientas de IA con los consumidores en entornos de atención médica o bienestar:
- El proyecto de ley HB 1806 de Illinois prohíbe que los chatbots de IA participen en comunicaciones terapéuticas y establece estándares para los profesionales autorizados que utilizan IA en terapia.
- Maine HP 1154 restringe la IA que engaña a los consumidores haciéndoles creer que están interactuando con un ser humano.
- La ley SB 623 de Carolina del Norte propone regular el comportamiento de los chatbots y crear un régimen de licencias para ciertos chatbots de “información de salud”.
- Los legisladores de Virginia planean reintroducir una legislación para regular los chatbots de inteligencia artificial, incluyendo potencialmente un derecho de acción privado relacionado con menores y bots de estilo acompañante.
Otras reformas a nivel nacional abordan el uso de IA en la atención clínica, la revisión de la utilización de los servicios por parte de los pagadores y aspectos relacionados con el proceso continuo de prestación de servicios de salud, una señal de que es poco probable que el escrutinio legislativo se desacelere en el sector de la salud.
El panorama más amplio
Estas nuevas leyes de IA refuerzan las normas ya consolidadas sobre marketing para pacientes y sanciones por tergiversación de la información por parte de los titulares de licencias. Por ejemplo, la Junta Médica de Carolina del Norte aclara que la publicidad engañosa, falsa o confusa constituye una conducta poco profesional según la Ley de Práctica Médica, y los médicos pueden estar sujetos a sanciones profesionales por dicha conducta. Si bien Carolina del Norte no tiene planes actuales para abordar específicamente el tipo de conducta en cuestión en la AB 489 con nuevas restricciones, los reguladores podrían utilizar las normas existentes para sancionar dicha conducta indebida.
Próximos pasos para las empresas que utilizan IA en la atención médica
Las organizaciones que desarrollan o utilizan herramientas de IA en entornos de atención médica, bienestar o atención al paciente deben actuar ahora para mitigar el riesgo regulatorio y prepararse para un panorama cambiante. Los pasos clave incluyen:
- Realice una auditoría integral del lenguaje de marketing, interfaces de usuario, íconos, títulos y elementos de diseño que podrían implicar experiencia médica o supervisión autorizada.
- Actualizar las divulgaciones y las comunicaciones de los usuarios para reflejar descripciones precisas de las capacidades y limitaciones de la herramienta.
- Confirme si sus funciones de IA involucran a profesionales autorizados y asegúrese de que cualquier afirmación de participación profesional sea verificable y documentada.
- Incorpore la revisión legal al desarrollo de productos, especialmente para herramientas de IA utilizadas en el apoyo a la toma de decisiones clínicas, la participación del paciente o el marketing relacionado con la salud.
- Monitorear las leyes estatales emergentes, ya que el cumplimiento multiestatal se está volviendo rápidamente necesario.
Si tiene alguna pregunta sobre esta alerta o cómo la AB 489 y las leyes estatales relacionadas pueden afectar el uso de IA de su organización, comuníquese con su abogado habitual de Smith Anderson, Hunter Bruton, Darrell Fruth, John Gibson o Josiah Irvin.