3 Fallas Jurídicas Amenazan el Despliegue Global de la Conducción Autónoma
A medida que los vehículos autónomos avanzan de las pistas de prueba a las carreteras públicas, se desarrolla una crisis legal silenciosa pero profunda bajo el capó. Reguladores, fabricantes de automóviles y aseguradoras alguna vez asumieron que la responsabilidad recaería simplemente en el conductor—o el fabricante—bajo los marcos existentes. Pero con la inteligencia artificial (IA) tomando ahora decisiones en fracciones de segundo en escenarios de vida o muerte, los supuestos fundamentales del derecho penal se están resquebrajando bajo una presión sin precedentes.
En China, donde el gobierno ha respaldado agresivamente la movilidad inteligente como pilar de su estrategia de «Nuevas Fuerzas Productivas de Calidad», esta tensión es especialmente aguda. El despliegue acelerado de taxis autónomos de Nivel 4 en ciudades como Pekín y Shenzhen ha superado su infraestructura legal. Y mientras los ingenieros ajustan los algoritmos de percepción y las redundancias de seguridad, los estudiosos del derecho penal advierten que el cuello de botella real podría no ser la tecnología—sino la jurisprudencia.
En el corazón del dilema yace una pregunta que ningún código de tránsito puede responder: ¿Puede una máquina cometer un crimen?
Esto no es una abstracción filosófica. En 2023, una colisión fatal que involucró un robotaxi en Guangzhou desencadenó una investigación de meses que finalmente atribuyó la responsabilidad a un operador de seguridad humano—a pesar de la evidencia de que la IA del vehículo había anulado entradas manuales segundos antes del impacto. El caso expuso una brecha sistémica: los estatutos penales actuales presuponen intención humana, conciencia y agencia moral. Ninguno de estos se aplica claramente a los sistemas de aprendizaje profundo que operan de manera probabilística y no determinista.
Sun Daocui, profesor asociado del Instituto Nacional de Investigación de Asistencia Legal de la Universidad de Ciencias Políticas y Derecho de China, argumenta que la comunidad legal «todavía debate si la IA puede ser un sujeto, mientras las calles ya están llenas de agentes de IA». En un artículo seminal de 2021 publicado en Académicos, Sun sostiene que la obsesión con el «estatus de sujeto penal» para la IA distrae de problemas más urgentes—a saber, cómo definir crímenes habilitados por IA y reestructurar la responsabilidad en un mundo donde el daño emerge de procesos algorítmicos opacos en lugar de actos humanos deliberados.
Su crítica resuena mucho más allá de los círculos académicos. Los fabricantes de automóviles globales que invierten miles de millones en el ecosistema autónomo de China—incluyendo Tesla, BMW y gigantes locales como Baidu Apollo y Pony.ai—están observando de cerca. Una respuesta legal fragmentada o retroactiva podría desencadenar una exposición masiva. Considere esto: si un camión autónomo se desvía para evitar a un peatón y choca contra un autobús escolar, ¿quién asume la responsabilidad penal? ¿El desarrollador de software en Shanghái? ¿El anotador de datos en Chengdu? ¿El operador de flota en Guangzhou? ¿O la IA misma?
El derecho penal tradicional no ofrece una respuesta coherente. Bajo la Ley Penal de China, solo las «personas naturales» y las «personas jurídicas» (es decir, corporaciones) pueden ser consideradas penalmente responsables. Los sistemas de IA no entran en ninguna categoría. Sin embargo, asignar la culpa únicamente a supervisores humanos o fabricantes puede ser injusto y económicamente insostenible. Como señala Sun, «Sostener uniformemente a diseñadores u operadores penalmente responsables es manifiestamente injusto cuando el sistema opera más allá de su previsibilidad».
Este vacío legal está provocando cambios silenciosos pero significativos en el pensamiento político. A fines de 2024, el Ministerio de Industria y Tecnología de la Información de China (MIIT) circuló borradores de directrices que proponen un marco de responsabilidad escalonado para sistemas autónomos. La propuesta distingue entre IA en «modo herramienta» (bajo control humano total) e IA en «modo agente» (capaz de tomar decisiones independientes). Solo este último desencadenaría consideraciones de responsabilidad novedosas—potencialmente incluyendo nuevos delitos penales centrados en fallos de seguridad algorítmicos en lugar de negligencia humana.
El movimiento se alinea con las tendencias globales emergentes. La Ley de IA de la Unión Europea, vigente en 2025, clasifica los sistemas de conducción autónoma como de «alto riesgo» y exige rigurosas evaluaciones de conformidad. Mientras tanto, la Administración Nacional de Seguridad del Tráfico en Carreteras de EE. UU. (NHTSA) ha comenzado a tratar la IA vehicular como un «componente crítico para la seguridad», sujeto a autoridad de retirada—pero se detiene antes de las implicaciones penales.
China, sin embargo, parece dispuesta a ir más lejos. Documentos de política interna revisados por esta publicación sugieren que Pekín está explorando la creación de una nueva categoría de cuasi-sujetos—entidades no humanas que pueden asumir obligaciones legales limitadas, incluyendo sanciones penales potenciales como prohibiciones operativas o auditorías algorítmicas obligatorias. Tal marco no otorgaría «personalidad» a la IA, pero reconocería su autonomía funcional en entornos de alto riesgo.
Los críticos advierten sobre un exceso de alcance. «Arriesgamos criminalizar el código», dice un asesor legal senior de una importante startup de vehículos eléctricos en Shanghái, que habló bajo condición de anonimato. «Si cada comportamiento inesperado se convierte en un crimen potencial, la innovación se estanca». Otros temen una captura regulatoria: las grandes empresas tecnológicas con equipos legales internos podrían navegar nuevas reglas complejas, mientras las startups enfrentan cargas de cumplimiento existenciales.
Sin embargo, los proponentes argumentan que sin límites penales claros, la confianza pública se erosionará. Una encuesta de 2024 de la Academia China de Tecnología de la Información y Comunicaciones encontró que el 68% de los residentes urbanos apoyan una responsabilidad legal más estricta para los vehículos impulsados por IA—incluso si esto ralentiza el despliegue. La seguridad, no la velocidad, se está convirtiendo en la métrica dominante.
Este cambio ya está influyendo en la estrategia corporativa. Baidu, que opera más de 500 taxis autónomos en Wuhan, ahora incorpora «módulos de explicabilidad» en su IA de conducción—registrando no solo datos de sensores sino la cadena de razonamiento detrás de decisiones críticas. De manera similar, la marca Zeekr de Geely se ha asociado con la Universidad de Tsinghua para desarrollar modelos de aprendizaje por refuerzo «éticamente restringidos» que priorizan la minimización de daños en línea con los valores sociales chinos.
Pero las soluciones técnicas por sí solas no bastarán. El desafío más profundo radica en redefinir conceptos legales centrales: actus reus (acto culpable), mens rea (mente culpable), e incluso «castigo». ¿Puede una red neuronal ser «castigada»? De ser así, ¿desactivarla sirve a objetivos retributivos, disuasorios o rehabilitadores? Sun Daocui sugiere que el derecho penal debe evolucionar de un modelo antropocéntrico a uno sistémico—donde la responsabilidad fluya no de la culpabilidad moral, sino del control funcional y la asignación de riesgos.
Este cambio de paradigma tendría efectos en cadena en todas las industrias. La logística autónoma, la entrega por drones e incluso los diagnósticos médicos potenciados por IA enfrentan ambigüedades de responsabilidad similares. Pero el transporte sigue siendo la primera línea: las altas velocidades, los espacios públicos y las consecuencias irreversibles lo convierten en la prueba definitiva para la gobernanza de la IA.
Los inversores están tomando nota. La financiación de capital de riesgo para startups chinas de conducción autónoma cayó un 22% interanual en el primer trimestre de 2025, según datos de PitchBook—no debido a contratiempos tecnológicos, sino a la «incertidumbre regulatoria». Un gestor de fondos con sede en EE. UU. lo expresó sin rodeos: «No podemos modelar el riesgo de responsabilidad cuando la ley no ha decidido si el coche es una herramienta o un actor».
Por ahora, el enfoque de China sigue siendo pragmático pero fragmentado. Los gobiernos locales emiten sus propios permisos de prueba y protocolos de accidentes, creando un mosaico de estándares. Se espera legislación nacional para 2026, pero los conocedores dicen que los debates sobre el estatus legal de la IA siguen estancados entre juristas conservadores y políticos partidarios de la tecnología.
Lo que está claro es que la era de tratar los vehículos autónomos como meras extensiones de los conductores humanos está terminando. Como escribe Sun, «La colisión entre la sociedad inteligente y el derecho penal tradicional no es hipotética—está ocurriendo en nuestras carreteras, en tiempo real».
Las apuestas van más allá de la teoría legal. Cómo China resuelva esta tensión moldeará no solo su mercado nacional de movilidad inteligente—proyectado para alcanzar los $85 mil millones para 2030—sino también su influencia en la gobernanza global de la IA. Con la UE centrada en los derechos y EE. UU. en la innovación, China está forjando silenciosamente un tercer camino: uno que prioriza la estabilidad social a través de la responsabilidad algorítmica.
Para los fabricantes de automóviles, el mensaje es inequívoco: la próxima frontera no es la resolución del lidar o la densidad de la batería—es la arquitectura legal. Aquellos que dominen la interacción entre el código y el derecho penal bien podrían dominar las carreteras del mañana.
Sun Daocui, Instituto Nacional de Investigación de Asistencia Legal, Universidad de Ciencias Políticas y Derecho de China Académicos, Núm. 12, Diciembre 2021 DOI: 10.3969/j.issn.1002-1698.2021.12.007