Regístrate en Bitget y obtén hasta 100 USDT en bonos completando simples tareas. Oferta por tiempo limitado.

India abre un nuevo capítulo en el debate sobre inteligencia artificial y responsabilidad legal.

Un proyecto parlamentario propone multas de hasta cinco crore de rupias por uso indebido de la IA. Además, la iniciativa busca frenar abusos sin bloquear la innovación tecnológica. Por tanto, el texto despierta interés político, jurídico y económico, tanto dentro como fuera del país.

La propuesta llegó al Parlamento como un proyecto privado presentado por la diputada del BJP Bharti Pardhi. Su objetivo central consiste en crear un marco ético y de rendición de cuentas. Así, la ley pretende regular decisiones automatizadas, vigilancia y sistemas algorítmicos de alto impacto social.

Multas elevadas y mensaje claro al mercado tecnológico

El proyecto plantea sanciones económicas muy altas, que pueden alcanzar los cinco crore de rupias o, para entenderlo más fácilmente, 50 millones en dicha moneda del país.

También contempla la suspensión o retirada de licencias para desplegar sistemas de IA. Incluso prevé responsabilidad penal en caso de reincidencia, lo que refuerza su carácter disuasorio.

Este enfoque envía una señal clara a desarrolladores y empresas tecnológicas. La innovación seguirá permitida, pero bajo reglas estrictas y transparentes. Además, el texto asigna responsabilidades directas a quienes diseñan y entrenan los sistemas de inteligencia artificial.

Uno de los puntos más sensibles del proyecto aparece en la vigilancia mediante IA.

El texto indica que solo podrá usarse con fines legales. Sin embargo, surge una pregunta esencial: ¿quién define ese fin legal y con qué criterios?

El abogado Krishna Grandhi, experto en derecho y tecnología, advierte sobre este riesgo. Según explica, «la legalidad no nace solo de un comité ético». Debe medirse frente a la Constitución y a leyes generales y sectoriales. Aquí entran artículos sobre igualdad, libertades y derecho a la vida, además de normas penales y tecnológicas.

El comité ético y sus límites reales

El proyecto crea un Comité de Ética para la Inteligencia Artificial.

Este órgano deberá aprobar previamente usos sensibles, como la vigilancia. Sin embargo, Grandhi subraya que el comité no puede convertirse en la única fuente de legalidad.

Por ello, recomienda reglas claras y pruebas objetivas. Entre ellas destacan necesidad, proporcionalidad, límites temporales y minimización de datos. Así, las decisiones del comité resultarían revisables y sólidas ante los tribunales. Este modelo recuerda al enfoque europeo aplicado en la Ley de IA de la Unión Europea.

Impacto en bancos y fuerzas de seguridad

La norma podría beneficiar a bancos y agencias de seguridad si se diseña bien su reglamento.

Sistemas como detección de fraude, análisis crediticio o herramientas de investigación ganarían respaldo legal. A cambio, deberían cumplir obligaciones claras de documentación, supervisión humana y auditoría.

No obstante, Grandhi alerta sobre un riesgo evidente. Procesos opacos o lentos podrían generar bloqueos administrativos y litigios constantes. Por tanto, el equilibrio entre control y agilidad resulta clave para el éxito del sistema.

No a tribunales especiales, sí a jueces preparados

El proyecto no propone tribunales exclusivos para delitos con IA.

Grandhi considera acertada esta decisión. Los delitos actuales ya encajan en leyes existentes, como normas penales, tecnológicas, financieras o de propiedad intelectual.

Crear juzgados exclusivos podría fragmentar competencias y generar conflictos. En cambio, propone formar salas especializadas dentro de tribunales existentes. Así se mantendría el control judicial y se evitarían duplicidades innecesarias.

Sugerencias para una ley más eficaz y creíble

El experto plantea mejoras concretas para reforzar el proyecto.

Entre ellas figura una definición legal clara de «uso legítimo». También propone clasificar sistemas de IA por riesgo, siguiendo el modelo europeo.

Otras medidas incluyen evaluaciones de impacto algorítmico, auditorías independientes y protección de secretos comerciales. Además, recomienda mantener intervención humana en decisiones críticas y garantizar derechos de explicación y reclamación.

El texto también prevé un sistema de quejas accesible para ciudadanos afectados. Cualquier persona podrá denunciar daños o abusos ante el comité. Con ello, la ley busca equilibrar innovación, derechos y confianza pública.

En definitiva, esta propuesta coloca a India en el centro del debate global sobre inteligencia artificial responsable. Su éxito dependerá menos de las multas y más de la calidad de sus reglas.

Deja un comentario