Derecho e inteligencia artificial: desafíos y sus posibles abordajes
Los avances de la tecnología han creado grandes beneficios y certeros resultados para la humanidad. No podemos negar el desarrollo de los algoritmos, la generación digital de data y los grandes avances para la ciencia, la educación, la ingeniería, las ciencias aplicadas, la salud y las artes, los cuales reflejan la relevancia y, quizás, la necesidad de la inteligencia artificial (IA).
En medicina, la evolución en las cirugías usando la robótica para casos complejos, con procesos menos invasivos, que permiten que el paciente sea tratado ambulatoriamente o a distancia, son solo algunas ventajas de estas innovaciones. Sin embargo, parecido a lo que sucede con las criptomonedas, desde el punto de vista legal y ético, hay desafíos.
Yuval Noah Harari, historiador israelí, considera que “toda persona responsable del diseño de una tecnología debe cuestionarse cómo entiende a los humanos y la relación que estos tienen con las herramientas que se van a crear… La tecnología estará llamada a liberar a la gente y expandir el potencial humano”.
En el plano del Derecho, una de las preocupaciones es la falta de regulación, el aspecto ético de la tecnología y sus productos en temas como la seguridad, privacidad, responsabilidad civil o penal, junto a la inmediatez y rapidez de los avances tecnológicos. Una sociedad que debe proteger a sus ciudadanos enfrenta lo actual e inmediato de la tecnología, que no siempre coincide en tiempo y espacio con las normas escritas. Esto presenta un retraso en cuanto a temas relacionados con la IA.
En casos como los de los taxis no tripulados, fomentados por empresas como Google y General Motors, queda pendiente determinar quién es el responsable si se produce un accidente. ¿Quién es el conductor? ¿Sería la empresa? ¿El fabricante? ¿El operador? ¿El desarrollador? En la medicina ha habido una revolución que permite que funciones cognitivas puedan ser procesadas a través de softwares que, en algunos casos, sustituyen el intelecto humano.
Respecto a su funcionalidad y el derecho, ¿cuáles consecuencias y acciones legales podrían ser llevadas a cabo en el caso de que haya fallas y el programa o “ente” no dé las respuestas acertadas y ocasione la muerte o daños irreparables al paciente? ¿Quién responde?
En Arquitectura, un plano y diversos trabajos técnicos pueden ser hechos con IA; en Derecho, hasta un juez puede ser un robot. ¿Cómo puede una pena ser personal, si el hecho lo ocasiona un robot? ¿Cuál es la personalidad jurídica de la cosa o ente creado con IA?
¿Quién es sujeto de Derecho ante un fallo o una creación surgida de manera autónoma? Ante la modificación de una obra y las violaciones a la propiedad intelectual que de ello deriva, ¿quién es el culpable, quién será el derechohabiente?
POSIBLES ABORDAJES
Como conclusión, sugerimos posibles abordajes, como: combatir estos posibles riesgos de la IA con creaciones, también de IA, que las controlen; crear legislaciones y directrices ágiles y flexibles, que según sea el caso, limiten y restrinjan la autonomía creadora de los “entes”. Al mismo tiempo, que las empresas creadoras, los desarrolladores, operadores e implementadores de los programas y entes comprometan su responsabilidad de forma clara, ya que estarán abriendo un camino para aceptar, admitir y usar la tecnología sin menoscabo del uso ético y responsable.
Toca a la academia ir fomentando las asignaturas, seminarios, certificaciones, modelos de trabajo y talleres en donde desarrollemos las competencias para abordar temas como IA y el derecho, e impulsemos discusiones sanas, de avanzada, y con miras a hacer la conexión entre Derecho e IA ahora.