En este webinar de la Comisión legal y fiscal, dos juristas y un especialista en IA generativa aportan sus análisis y sus visiones desde distintos ángulos de una tecnología transversal a toda la actividad humana actual. Los temas abordados en este vídeo refieren tanto a la ética, la regulación y los sesgos como el impacto laboral que tiene la IA.
Los oradores fueron:
Eduardo Laens: empresario emprendedor y licenciado en MKT. Cuenta con un máster en Inteligencia Artificial Generativa con más de 20 años de experiencia en tecnología. Es además docente secundario y universitario. Es actualmente CEO de Varegos.
María de los Ángeles Bernachea: socia del área de corporativo y tecnología de ECIJA. Cuenta con amplia experiencia en asesoramiento de clientes nacionales e internacionales en materia de desarrollo corporativo, tecnología y propiedad de datos. Se recibió de abogada en la UBA y realizó diversos estudios de posgrado en la Argentina y el exterior.
Gonzalo Giomi: abogado socio de ECIJA Argentina, graduado.de la Facultad de Derecho de la UBA.
Eduardo Laens
(03:20) “Por qué son necesarios los marcos regulatorios, la identificación temprana de riesgos, responsabilidades y sobre todo reputación de todas aquellas organizaciones que utilizan inteligencia artificial generativa. Lo primero que me gusta aclarar es que el campo de la inteligencia artificial no es nuevo, existe desde hace muchísimos años, pero lo que nos está llegando con mayor intensidad, está de moda y genera mayores expuestos y falta de regulación es el último arco de aprendizaje de las inteligencias artificiales que son las generativas. Es un arco muy amplio y nos vamos a centrar en un subcampo que son las generativas. En el mundo laboral se habla de la cantidad de trabajos que van a desaparecer. Ya desde la década del ´80 hasta la primera década del 2000, gran parte de los trabajos tradicionales que conocíamos fueron desplazados por automatizaciones tecnológicas. Todavía no hablábamos de generativas. Era una tendencia que se venía sosteniendo y ahora se va a acelerar”.
(06:37) «¿Cuál es el desafío para las organizaciones? El reskilling: cómo entrenamos a las personas que están en nuestras organizaciones para que puedan hacer el paso de una posición que va a ser reemplazada por una tecnología de automatización, donde ellos van a ser los usuarios expertos en la lógica funcional de esa tarea mientras hay una tecnología que se encarga de ejecutar esas automatizaciones. El primer punto que aparece como gran problema de la generativa (texto, imágenes, audio, música y video) tiene que ver con el fake
everything: hoy es muy sencillo construir a partir de información algo completamente nuevo generado por inteligencia artificial”.
(08:36) “El problema es para qué se usa. El fake everything atenta contra pruebas jurídico-legales que se utilizan para poder demostrar inocencia o culpabilidad. Con 90 segundos de tu voz puedo generar una cinta de audio completamente indistinguible de tu voz”….”esto ya ocurre en el mundo que deriva en chantaje. Hoy es sencillo encontrar las vulnerabilidades a través de una generativa. Los usos están al alcance de todos y esta es una nueva complejidad porque no tenemos la seguridad de que los usos serán positivos”.
“La misma tecnología que nos puede ayudar para complacer se puede utilizar para convencer.
(13:46) «La importancia de detectar errores: igualdad y sesgos / protección de datos (para qué se recolectan, cómo se alojan y cuál es su
destino) / capacidad de rendir cuentas (ser responsable por lo que estoy haciendo) / propiedad intelectual. Estamos generando activos nuevos. De quién son si no fueron generados por mí. Hay que tomar muchísimas decisiones de seguridad y de impacto antes desembarcar en un proyecto de utilización de una generativa”.
(16:52) “¿Todas las respuestas que van a dar las regenerativas van a ser falsas? No necesariamente, pero las generativas están entrenadas con
internet donde hay de todo: bueno, malo, incorrecto, a propósito, memes, ironías”. El otro problema que tienen los modelos son los sesgos. Cuando le doy información, está sesgada por la base de datos con la que la alimentamos”.
(20.40) “Estamos cediendo información biométrica a entidades que no están siendo completamente claras y transparentes en cuanto a para qué están usando esos datos. En relación con la propiedad intelectual: no hay mucha legislación. Cuidado con el abuso de estas tecnologías porque vienen a potenciarnos y no a volvernos más holgazanes».
(24:18) “Que las organizaciones se lancen al mercado a agarrar tecnología que no están todavía preparadas para el masivo es un riesgo y después contra esto no hay nada que hacer. No podemos delegar completamente la responsabilidad en la tecnología porque puede fallar y somos nosotros quienes asumimos los riesgos morales, económicos y de reputación frente a los usuarios. ¿Podemos hacer algo para cambiar todo esto? Va más rápido que el mercado, las leyes y parecería que hay ciertas urgencias. Necesitamos aprender y entender rápido las implicancias para cometer la menor cantidad de errores”.
María de los Ángeles Bernachea
(27.20) “Cómo estamos trabajando para mitigar los riesgos. Si bien no hay una legislación nacional, hay una obligación legal incluida en el Código Civil y Comercial. También instrumentos internacionales”
Gonzalo Giomi
(29:26) “Hoy en día es imposible no determinar que la industria está aplicando inteligencia artificial como herramienta para eficientizar
servicios, tanto en cyber seguridad, comercios, gestión empresarial. Es decir, el riesgo existe pero se está aplicando en distintos ámbitos. Para proteger un bien jurídico tenemos que remontarnos a la idea de los derechos humanos vistos desde el ser humano digital, como información pública, privacidad de datos, honor en línea. La idea de proteger un bien jurídico frente al inminente riesgo que existe por la aplicación de la inteligencia artificial es lo que nos llevará a tratar de sesgar los derechos que vamos a proteger entre ellos por
ejemplo, la libertad de expresión, datos bancarios, derechos de autor, entre otros”.
María de los Ángeles Bernachea
(32:45) “Es importante que identifiquemos esos riesgos porque no son menores. La gobernanza será precisamente cómo mitigar cada uno de esos riesgos, reducirlos o tratarlos. Ese es el estudio que se hace desde el inicio cuando uno quiere implementar inteligencia artificial. Los errores “están dando lugar precisamente a los reclamos desde la empresa, consumidores y asociaciones que pueden reclamar el cumplimiento de derechos digitales, inclusive aun no teniendo legislación específica”.
Gonzalo Giomi
(35:40) «Los principios de ética de la Unesco establecen que todo el proceso, desde el momento de data entry hasta el de ejecución de
inteligencia artificial y el uso por parte de un usuario final, sea seguido por un humano. Dentro de esos principios tenemos el derecho a la
protección de datos que debe ser certera, no subir datos sensibles, temas de gobernanza».
“Los principios de la Unesco van a ser aplicados en la Argentina por medio de un decreto reglamentario”
María de los Ángeles Bernachea
(38:30) “Si bien tenemos en Argentina una incorporación de recomendaciones, no se están viendo en su totalidad en la aplicación en
distintos aspectos en el Estado Público, nacional o municipios”.
Gonzalo Giomi
(39:39) “En Europa ya está sancionado por el Parlamento la ley de Inteligencia Artificial: es una regulación basada en una pirámide de
riesgos” Aclaración: no se va a aplicar hasta el 2026. Los requisitos de alto riesgo que impone esa ley tiene que ver con
hacer un seguimiento según los principios de la Unesco».
(44:00)»Siguiendo nuestro propio marco regulativo, no tenemos una ley, sino varios proyectos de ley y dos decisiones administrativas. Uno de los proyectos que es el marco para la regulación, desarrollo y uso de la inteligencia artificial que toma un poco de normativa
internacional. Pone la responsabilidad en cabeza de desarrolladores y proveedores de sistemas de inteligencia artificial”.
María de los Ángeles Bernachea
(47:08) “En los principios de la Unesco se encuentran algunas formas de mitigar daños. Está hecho para eso, es el objetivo, el de proteger los derechos de las personas que pueden ser atacadas. La obligación de mitigar el daño no es de una sola persona o sector de una empresa cuando va a incorporar el uso de inteligencia artificial, sino que será multidisciplinario”, con un integrante abogado desde el inicio del
proceso. La ley de datos dice que el dato tiene que ser preciso, exacto. Entonces estamos en un problema cuando vemos que la inteligencia
artificial está entrenada con datos de internet y no controlada”.
(51:08) “Siempre se debe tener una auditoría continua. No alcanza con un análisis inicial del proyecto. Tengamos en cuenta (como usuarios de inteligencia artificial) que lo que estamos obteniendo no necesariamente puede ser real o completa la información. Por lo tanto, cualquier profesional tendrá la obligación de confirmar ese resultado”.