El domingo 1 de marzo de 2026, se grabó a uno de los vehículos de la empresa de taxis autónomos Waymo bloqueando una ambulancia en el centro de Austin, tras el trágico tiroteo en 6th Street. El vehículo detuvo el paso de unidades de emergencia durante 1 a 2 minutos, y las autoridades dijeron a medios locales que el retraso no tuvo impacto en el tratamiento.

Pero fácilmente pudo haberlo tenido.

Un derrame cerebral ocurre cuando un coágulo impide que la sangre llegue al cerebro. La sangre transporta oxígeno, y sin él, los tejidos vitales – incluido el cerebro – comienzan a morir. Un retraso de 10 minutos en el tratamiento de un derrame puede causar la muerte de aproximadamente 19 millones de neuronas. Esa pérdida de tejido cerebral es una de las razones por las que muchas personas presentan caída facial por parálisis parcial o disminuciones en la capacidad cognitiva.

En escenarios aún más catastróficos, como un infarto, un retraso mínimo en la respuesta médica puede ser la diferencia entre un susto y la muerte.

Ese domingo no había una víctima de derrame, y por suerte la policía pudo anular los sistemas de Waymo para mover el vehículo. Pero este incidente es solo uno más en una serie de casos que han evidenciado la dificultad de Waymo para operar con seguridad de forma consistente en calles urbanas. En febrero, se grabó a uno de sus autos rebasando camiones escolares con la señal de alto extendida. Sumado a la reciente revelación de que Waymo utiliza trabajadores remotos en Filipinas para “ayudar a guiar” sus vehículos sin conductor, estos hechos muestran problemas serios no solo de Waymo, sino de los vehículos autónomos en general, y plantean grandes preguntas sobre la responsabilidad legal de las grandes empresas tecnológicas.

Razonamiento humano simple

Desde su debut en 2019, Waymo ha recibido críticas por no responder lo que muchos consideran la pregunta más importante sobre los vehículos autónomos: “¿Qué vida vale más, la del conductor o la del peatón?”

Hasta ahora, Waymo ha evitado contestarla (por razones evidentes). El domingo, el vehículo se “congeló” mientras intentaba dar vuelta en U sin atropellar peatones, sin dañar propiedad y sin violar leyes de tránsito. Es cierto que algunos conductores también se paralizan ante lo inesperado, pero la mayoría de las personas, en una situación así, al menos habría entendido la instrucción de la policía de avanzar, o habría hecho una maniobra técnicamente ilegal para quitarse del paso (por ejemplo, subirse un poco a la banqueta). Sin embargo, por cómo operan los sistemas de Waymo, esa “deducción simple” no está disponible. Los sistemas de inteligencia artificial funcionan con pesos balanceados, y ese domingo el sistema del auto se quedó atrapado en un punto intermedio.

Lamentablemente, cuando bloques de metal de media tonelada se quedan “a medias”, casi siempre es un ser humano quien paga el precio.

Negligencia, responsabilidad por producto y asumir errores

En un choque típico, el proceso es directo: primero los hechos, luego la culpa, y al final el dinero. Los hechos se establecen con la evidencia disponible, la responsabilidad legal se determina reconstruyendo lo ocurrido y la compensación se asigna a la persona lesionada conforme al sistema de culpa comparativa de Texas.

Con los vehículos autónomos, en cambio, la discusión se desplaza hacia la responsabilidad por producto y la “negligencia operativa”. Es decir: por lo general no se considera responsable a una sola persona por lo que puede ser la pérdida de una vida humana; en su lugar, la culpa se reparte entre decisiones de software, limitaciones de hardware, monitoreo de flotas y otros factores similares. No existe un estándar federal único de responsabilidad civil para choques con vehículos autónomos. Este contraste es importante porque deja en evidencia lo difícil que es determinar la culpa en un accidente de un AV.

En la práctica, los vehículos autónomos chocan, atropellan peatones, fallan en pruebas del mundo real, violan leyes de tránsito y pueden afectar respuestas de emergencia, pero no se les retira de la calle de forma obligatoria mientras se resuelve el problema o se completan más pruebas. El “recall” de software de Waymo en diciembre fue voluntario y solo abarcó aproximadamente 3,000 vehículos. Waymo también sostiene que sus vehículos tienen 91% menos choques con lesiones graves y 92% menos choques con lesiones a peatones, según NPR.

Para ser claros: los vehículos de Waymo son un milagro de ingeniería. Los sistemas para captar, procesar y utilizar la enorme cantidad de datos integrada en cada vehículo son impresionantes. Además, Waymo parece ser de las mejores de su sector en cuanto a rendición de cuentas. Muchos choques que involucran vehículos de Waymo han mostrado tener una causa humana externa, y su recall voluntario fue una señal de buena fe.

ContáctenosContáctenos

Pero existe un problema serio en la industria tecnológica en general, que parece conforme con usar al público como “banco de pruebas”. Las empresas tecnológicas, por lo común, no parecen dispuestas a retirar productos y detener operaciones, incluso cuando se vuelve claro que ponen en riesgo a la población.

Consideraciones adicionales

El enfrentamiento entre el vehículo de Waymo y la ambulancia en el centro de Austin terminó cuando un oficial escaneó el código QR de “acceso para autoridades” en el costado del vehículo y lo condujo fuera del camino. El equipo de emergencias no tenía acceso a ese protocolo, y este incidente muestra uno de los principales problemas que traen consigo los vehículos autónomos.

¿Qué pasa si no hay policías cerca? ¿Eso significa que el tiempo de respuesta policial ahora se suma al tiempo de respuesta médica?
¿Qué pasa si no hay conexión disponible o si las antenas del vehículo están dañadas?
¿Cuántas personas pueden tener acceso al protocolo de control de Waymo antes de que se convierta en un riesgo de seguridad?

Son preguntas serias que pueden causar problemas serios. Y no todas las empresas son tan abiertas como Waymo: Tesla fue sorprendida ocultando datos de choques durante un juicio, después de que un hacker los encontrara.

OpenAI y Waymo: dos caras de la misma moneda

OpenAI ha estado en litigio por su posible papel en el suicidio de varios adolescentes desde agosto de 2025. También se ha vinculado su chatbot con mayor depresión, aislamiento y una nueva condición llamada “psicosis por IA”. Al igual que Waymo, OpenAI lanzó un producto al mundo sin comprender por completo el impacto que tendría. Al igual que Waymo, OpenAI usó al público para probar su nuevo producto.

Sin embargo, cuando quienes resultan afectados buscan compensación, las empresas involucradas diluyen la culpa al encuadrar el asunto como un caso tradicional de responsabilidad por producto y evaden responsabilidad culpando al usuario final. Existen muchas preguntas paralelas entre la industria automotriz y OpenAI en materia de lesiones personales:

  • ¿Qué pasa si el bot me dice que haga algo dañino?
  • ¿Qué pasa si el auto decide frenar de golpe y provoca un choque?
  • ¿Qué pasa si el bot da un consejo médico incorrecto y la lesión empeora?
  • ¿Qué pasa si el auto bloquea a EMS/paramédicos y empeora la lesión de quien pidió ayuda?

Durante más de una década, el modelo dominante de las grandes tecnológicas ha sido “muévete rápido y rompe cosas”. En teoría, significa desarrollar e iterar rápido para mantenerse por delante de la competencia. Pero cuando el producto puede afectar directamente la seguridad de las personas, esa frase se parece más a negligencia y disposición a dañar clientes que a innovación. Waymo sí se movió rápido: ya opera en más de 10 ciudades, incluso en Texas, Florida, Georgia y Arizona. Pero el camino no ha sido parejo y, al igual que OpenAI, Waymo ha mostrado disposición a permitir que su producto cause daños a vehículos y a la seguridad del público, aunque no sea intencional.

Conclusión

El problema aquí no es que los vehículos autónomos cometan errores. Los humanos no conducimos perfecto y ningún producto es 100% confiable. El punto es que se pone en riesgo directo la vida de las personas cuando sistemas como Waymo, Tesla y otros de “Full Self Driving” (FSD) se prueban en calles públicas. Y cuando estos vehículos provocan choques o retrasos (incluyendo tráfico de emergencia), la consecuencia suele ser apenas una regañada para la empresa. Conductores humanos (que no han dado su consentimiento) son usados como grupo de prueba y con frecuencia resultan lesionados.

Los casos de lesiones personales ya son complicados. Se vuelven aún más complejos cuando hay que rastrear a la empresa responsable y luego litigar una culpa parcial entre limitaciones de hardware y fallas de software. Además, en casos de AV es más difícil alcanzar una compensación completa, porque los despachos ahora deben contratar expertos en informática forense digital, especialistas en programación y otros profesionales con conocimientos suficientes para explicar cómo operan los vehículos autónomos.

Si usted resultó lesionado en un accidente con un vehículo autónomo que involucre a Waymo, Tesla, Nuro, Wayve o cualquier otra empresa que ofrezca FSD o servicios de taxi autónomo, necesita comunicarse hoy mismo con un abogado de lesiones personales con experiencia. Hilda Sibrian ha representado por más de 22 años a clientes de Houston, Texas, en casos de accidentes automovilísticos, choques con tráileres y otras lesiones sufridas como peatón o en la vía pública. Hilda Sibrian atiende el área metropolitana de Houston, incluyendo Sugar Land, Missouri City, La Porte, Beaumont, Pasadena, The Woodlands, The Heights, Bellaire, Kingwood, Baytown y, por supuesto, Houston.

Llame hoy a nuestra oficina o llene nuestro formulario de contacto en línea para una consulta gratuita.