Esta innovación abre nuevos interrogantes y exige a los Estados generar una regulación para evitar sus efectos nocivos. Las llaves

El Estado creó una guía ética para orientar el uso y desarrollo de los Inteligencia Artificial (IA) en Argentina Rebajó el concepto de que las Tecnologías de la Información y la Comunicación (TIC) deben tener una perspectiva social, además de paliar sus posibles efectos negativos desde el mismo momento de su creación.

Sin embargo, a su sombra se están gestando otros debates, como el uso de datos personales y la necesidad de regulaciones más estrictas.

Inteligencia artificial: cómo se regula en Argentina y el mundo

A mediados de junio, el El Parlamento Europeo confirma su interés en debatir la letra del primer reglamento integral propuesta en torno a la IA y cuyo consenso se espera para finales de 2023.

En términos generales, es una ley en proceso, que busca que la los desarrollos son seguros, transparentes, trazables, no discriminatorios, respetuosos con el medio ambientepero que también lo son supervisado por personas y no por automatización. También establece niveles de riesgo y ejemplos:

  • limitado: sistemas que generan o manipulan contenido de imagen, audio o video
  • inaceptable: identificación biométrica en tiempo real y a distancia, como el reconocimiento facial

En tanto, la Secretaría de Innovación Pública de Argentina (SIP) publicó en el Boletín Oficial resolución 2/2023, con recomendaciones para desarrollar una IA fiable.

Agustina Brizio, subsecretaria de Tecnologías de la Información de la SIP cuenta iProUP que esta iniciativa “refleja una visión transversal de las políticas públicas mediadas por la tecnología, pero también en referencia a los modelos de fomento de adopción que impulsamos”. El Guía argentino está en la línea europea.pero con menos alcance:

  • Es moral y no obligatorio.
  • Integra una estrategia para que las empresas locales que desarrollan IA (especialmente las públicas) lo hagan desde una perspectiva ética y humana
  • Busca que cada decisión esté respaldada por la validación humana

La inteligencia artificial alarma y excita a partes igualessobre todo, despuésTu versión generativa desarrollará contenido creativo sin intervención humana. Un ejemplo de sus riesgos es el aparición de la falsificaciones profundasanglicismo con el que se nombran imágenes falsas, que parecen reales, pero resultan del uso de alguna herramienta de IA.

El funcionario admite: “Aún queda un largo camino por recorrer para construir un marco que permita hacer frente a la proliferación de falsificaciones profundas a estrategias concretas para el sector productivo”.

Inteligencia artificial: ¿qué pasa con los datos personales?

los gobiernos de argentina y estados unidos realizó un seminario para compartir perspectivas sobre la transferencia internacional de datos personalesreglamentos y acuerdos internacionales.

Beatriz Busaniche, presidenta de la Fundación Vía Libre, define el encuentro como un “Iniciativa de cabildeo de Estados Unidos para que Argentina se alinee con sus políticas internacionales y, sobre todo, a nivel de comercio”.

Según el experto, las conversaciones se centraron en el flujo transfronterizo de datos y la IA, dos aspectos estrechamente vinculados: el primero es un insumo central para la producción y formación del segundo.

Busaniche remarca que “EE. UU. promueve el libre flujo transfronterizo de datos, incluidos los datos personales. Cuenta con una política de certificaciones y acuerdos comerciales organizaciones multilaterales a las que llegaron con la comunidad de Asia-Pacífico, que quieren exportar al resto del mundo y planean traerlo a América Latina”.

La Fundación Vía Libre se opone a este tipo de acuerdos porque “debe haber más normas protectoras“, confía Busaniche, y recuerda que el Argentina avanza en renovar legislación de datos personalescuyo proyecto el Gobierno sometió a debate en el Congreso.

Para Busaniche, yEl borrador “es un paso adelantesuperior a lo que existe hoy en día”, aunque advierte de la importancia de cuidar los datos inferidos, es decir, aquellos que surgen del tratamiento analítico de los comportamientos y usos de las personas en Internetpor ejemplo, y que Vía Libre se esfuerza por que sean tratados y protegidos de la misma manera que los personales.

La última versión del proyecto de ley analizado incluye cláusulas similares a la propuesta estadounidense para que las empresas puedan tener excepciones a la entrega y al cumplimiento de este marco de derechos, si ello colisiona de alguna forma con los secretos comerciales o industriales de las empresas”, agrega el especialista.

El cuidado de la privacidad y los datos personales son derechos humanos y, por tanto, los patrimoniales no pueden tener preeminencia como lo establece la Constitución Nacional. Para Busaniche, un enfoque en el que esta pauta ética de la IA está en sintonía, pero parece poco.

“Peor es nada”, resume el especialista, quien advierte que “el marco legal tiene que ser mucho más riguroso que un marco de pautas éticas opcionales“. A modo de ejemplo, propone”pensar en un desincentivo económico a la captura y saqueo permanente de datoses decir, que las empresas paguen impuestos, paguen y cumplan con los marcos legales vigentes”.

y señala la importancia de él El Estado genera capacidades locales, “ya ​​que es la única forma de invertir este proceso asimétrico del desarrollo de la inteligencia artificial a nivel global”.

Inteligencia artificial: por qué se debe seguir el caso de Estonia

El significado que tiene para mí la Inteligencia Artificial es la posibilidad de dialogar con el contenido”, valora Gustavo Giorgetti, fundador de ThinkNet SA y evangelizador de la implementación del modelo de integrabilidad de datos que realizó Neuquén, por ejemplo, inspirado en el modelo del país más digital del mundo, Estonia.

Argentina ofrece una guía moral para desarrollos con inteligencia artificial

Argentina ofrece una guía moral para desarrollos con inteligencia artificial

Para Giorgetti, La IA es un asistente que cada uno puede entrenar según sus intereses y que les ayuda a dialogar con determinados datos.

“Aquí cobra más importancia la calidad de la información, es decir, que la fuente es auténtica, no está replicada y que realmente hay acceso controladoagrega la especialista, e insiste en la importancia de adoptar una normativa para la convivencia digital denominada Ecosistema de Integrabilidad Digital (EDI)según la norma IRAM 17610 recientemente publicada que garantiza la trazabilidad, confidencialidad y seguridad en el intercambio de datos.

“Es una bofetada asfixiante”, dice Giorgetti sobre la creación de instrumentos como la guía de referencia ética. Él propone que al Gobierno a centrarse en trabajar en “la gobernanza de todas las tecnologíasque es lo que hace Estonia con las regulaciones que colocan cada tecnología en el lugar que le corresponde”.

En términos generales, eso País europeo desarrolló un modelo por el cual los ciudadanos designan a sus propios defensores de su privacidad o los pone a disposición en casos excepcionales y solo para ciertos actores; como los médicos que atienden una emergencia, situación en la que es necesario conocer la identidad y el estado de salud de una persona inconsciente.

Si bien Argentina trabaja en la integración con gobierno de datos, los expertos consultados por iProUP Coinciden en que todavía queda un largo camino por recorrer. Así como la normativa relacionada con la protección de datos se enfrenta a los tiempos de la democracia en Argentina, en todo el mundo hay discusiones regulatorias que no van al ritmo de la innovación.

“Los avances tecnológicos nos han empujado a repensar la lógica con la que se construyen los marcos regulatorios“, concluye Brizio.

Leave a Reply

Your email address will not be published. Required fields are marked *