Hilda Sibrian - Abogado de Lesiones en Houston

La nueva ley de responsabilidad civil por inteligencia artificial de Texas entra en vigor Jan. 1

Imagen de Hilda Sibrian

Hilda Sibrian

Houston's Personal Injury Attorney

La nueva ley de Texas sobre “gobernanza responsable de la inteligencia artificial” (Texas Responsible AI Governance Act o TRAIGA) entra en vigor exactamente en una semana, el 1 de enero de 2026.

Esta ley busca abordar las crecientes preocupaciones en torno a la llamada “IA agéntica”, es decir, sistemas de inteligencia artificial utilizados para responder preguntas de usuarios o gestionar procesos de admisión. Estos llamados “agentes de IA” han crecido de forma exponencial en los últimos años, a medida que las empresas buscan reducir el costo y la complejidad de contratar y administrar personal de atención al cliente.

Sin embargo, estos servicios ya no se limitan a sitios tecnológicos o soporte básico. Se han extendido a servicios profesionales, incluidos los sectores legal, médico y de salud mental. Su uso tiene sentido práctico: estos bots ofrecen una forma aparentemente humana de interactuar con una empresa y funcionan como un filtro que recopila información de contacto, permitiendo que tanto la firma como el cliente sepan de inmediato si se encuentran en el lugar correcto.

En el ámbito médico, estos agentes permiten que los pacientes obtengan información sin acudir físicamente a una consulta y, en caso de hacerlo, la clínica puede omitir la entrevista inicial y estar preparada para atenderlos de inmediato. No obstante, esta tecnología emergente no está exenta de fallas, y demandas recientes han demostrado que representa un riesgo significativo en materia de lesiones personales.

¿Cuál es el problema con los chatbots de IA?

Ya mencionamos que la IA agéntica es una herramienta que las empresas pueden utilizar para ahorrar dinero y que permite a los usuarios realizar consultas de manera natural sobre temas básicos. El problema central es que estos agentes no son abogados, médicos, terapeutas ni ningún otro tipo de profesional con licencia, a pesar de lo que algunas empresas o artículos puedan sugerir. La IA no solo carece del contexto necesario para ofrecer respuestas razonadas, sino que además puede, y con frecuencia lo hace, inventar información por completo, un fenómeno conocido como “alucinación”.

Esto tiene implicaciones graves para las profesiones reguladas, donde proporcionar información incorrecta o aplicar consejos de manera indebida puede causar daños. El peligro es que los chatbots ofrezcan recomendaciones potencialmente peligrosas, como ocurrió en 2023 cuando Alexa de Amazon le indicó a una niña de 10 años que tocara un enchufe eléctrico con una moneda.

Se trata de un problema serio que puede dejar expuestos a profesionales independientes o a pequeños despachos con pocos empleados frente a reclamaciones por lesiones personales.

¿Dónde está la responsabilidad?

Veamos un escenario hipotético. Si un bot da un consejo que provoca daño a otra persona, o sugiere a un usuario que realice una actividad ilegal, ¿quién es realmente responsable?

  • ¿El bot por proporcionar información errónea?
  • ¿El propietario del sitio web por utilizar una herramienta defectuosa?
  • ¿La empresa que creó el chatbot?
  • ¿La empresa que suministró los datos a quien desarrolló el chatbot?

Evidentemente, el chatbot en sí no puede ser considerado responsable. Por lo tanto, la responsabilidad tendría que recaer total o parcialmente en el propietario del sitio web que utiliza el chatbot (médicos, abogados, terapeutas), en la empresa que lo ofrece, en el desarrollador del sistema o incluso en el usuario final por un uso indebido de la herramienta.

¿Qué están haciendo los estados para proteger a los consumidores?

Hasta ahora, la mayoría de los estados han aprobado leyes para limitar el alcance de la inteligencia artificial, enfocándose principalmente en deepfakes y pornografía de venganza. Sin embargo, proyectos recientes en Nevada, California, Colorado, Utah y Texas han puesto atención específica en el uso de agentes de IA dentro de profesiones reguladas.

Texas

Desde el 1 de septiembre de 2025, los profesionales de la salud cuentan con autorización legal para usar IA en la atención médica, bajo las siguientes condiciones:

  1. El profesional actúa dentro del alcance de su licencia, certificación u otra autorización para prestar servicios de salud en Texas, independientemente del uso de inteligencia artificial.
  2. El uso específico de la inteligencia artificial no está restringido ni prohibido por la ley estatal o federal.
  3. El profesional revisa todos los registros creados con inteligencia artificial de manera consistente con los estándares de expedientes médicos establecidos por la Junta Médica de Texas.

Adicionalmente, Texas aprobó este año la Ley de Gobernanza Responsable de la Inteligencia Artificial (TRAIGA). El proyecto, aprobado en mayo, entra en vigor el 1 de enero de 2026 y establece requisitos de divulgación, define usos prohibidos y fija sanciones civiles.

ContáctenosContáctenos

En términos generales, TRAIGA establece que el uso de chatbots de IA:

  • Debe ser divulgado de forma clara.
  • No debe incitar a la violencia contra uno mismo o contra terceros.
  • No debe “calificar” ni rastrear a los usuarios, incluso mediante características o rasgos no identificables.
  • No debe utilizarse para desarrollar o distribuir contenido sexual ilegal, incluidos los deepfakes.

Derecho privado de acción

El Fiscal General de Texas, actualmente Ken Paxton, tiene prácticamente la facultad exclusiva para hacer cumplir TRAIGA. Lamentablemente, la ley establece de forma expresa que no existe un “derecho privado de acción”, es decir, no constituye por sí misma la base de una demanda civil o por lesiones personales conforme a la Sección 552.101(b).

En su lugar, se debe presentar una queja contra la empresa infractora, la cual será atendida por la oficina del Fiscal General de Texas.

No obstante, nada en TRAIGA impide que existan acciones privadas contra empresas desarrolladoras de modelos de lenguaje en general. Solo las compañías que utilizan chatbots como parte de sus servicios para preparar materiales o atender clientes pueden verse limitadas. Empresas desarrolladoras de modelos de lenguaje a gran escala, como OpenAI, Google, Perplexity y Anthropic, siguen expuestas a posibles demandas privadas.

California

El 11 de septiembre de 2025, California aprobó el Proyecto de Ley del Senado 243 (SB 243). Según su autor, la ley exige que los operadores implementen “salvaguardas críticas, razonables y alcanzables” en las interacciones. A diferencia de Texas, California sí otorga explícitamente a las familias el derecho privado de iniciar acciones legales contra desarrolladores negligentes o que incumplan la ley.

¿Qué significa TRAIGA para usted?

En el mejor de los casos, esta ley implicará menos desinformación y una postura firme contra herramientas abusivas. Por otro lado, los agentes de IA podrían volverse más costosos y, probablemente, menos útiles. La forma más sencilla de evitar el problema de la desinformación es limitar a los bots a dirigir a los usuarios hacia artículos informativos, como lo haría un agente de atención en un centro comercial o empresas grandes como Lenovo y Samsung. Es muy probable que la mayoría de la IA agéntica termine funcionando, en la práctica, como un buscador web altamente intensivo en recursos.

Para profesionales legales y médicos

TRAIGA contempla un periodo de gracia de 60 días para corregir cualquier incumplimiento. De hecho, la ley prohíbe expresamente que la Oficina del Fiscal General tome acciones antes de que transcurra ese plazo, lo que resulta más flexible que las disposiciones de otros estados.

Los profesionales deben ser cautelosos al implementar inteligencia artificial y llevar un control estricto de su uso. Debido al tamaño y complejidad de los conjuntos de datos conectados, la IA sigue siendo una “caja negra”, una herramienta en gran medida impredecible.

Contacte a un abogado de lesiones personales con experiencia en Houston

La era de la inteligencia artificial es emocionante, pero también abrumadora. Muchos estados buscan limitar y regular su uso, aunque quizá sea demasiado poco y demasiado tarde. Los casos de psicosis inducida por IA están en aumento, y nuestros colegas ya han impulsado varias demandas contra empresas de tecnología.

Si usted o un ser querido ha sufrido una lesión como resultado del uso de inteligencia artificial, ya sea por consejos perjudiciales o por el desarrollo de psicosis relacionada con IA, debe comunicarse de inmediato con Las Officinas de Hilda Sibrian. Hilda Sibrian ha servido a la comunidad de Houston por más de 21 años, ofreciendo experiencia legal de alto nivel, atención personalizada y un compromiso constante con cada cliente.

Comuníquese con nuestra firma hoy mismo al 713-714-1414 o complete nuestro formulario de contacto en línea.

Si sufriste algun lesion por culpa de alguien mas, no esperes!

Contactenos con la forma abajo...

      Índice