8 de noviembre de 2019  • 12:27

Ya terminando el 2019 podemos decir sin muchas dudas que se trata de un año que ha regalado imágenes e hitos que ayudan a achicar las barreras que separan la realidad de la ciencia ficción.

Poco tiempo atrás vimos que en las manifestaciones callejeras de Hong Kong, los manifestantes prodemocracia utilizaban láseres para dificultar el reconocimiento de patrones faciales que realizan los algoritmos, dado que estos sistemas son la herramienta que utilizó la policía y las autoridades para identificar manifestantes.
La inteligencia artificial que nutre este software está el centro de la polémica: su 'efectividad' y su legalidad la colocan hoy en un caluroso debate global sobre su uso del que la Argentina no está exenta.

Este también es un año donde se han consolidado definitivamente los deepfakes.
Mas allá del asombro y hasta la diversión que puede provocar el sofisticado uso de estas tecnologías, lo que subyace es qué tanto daño pueden provocar en la era de las fake news y la desinformación.

Por ejemplo, Lyrebird, una startup con sede en Montreal, utiliza inteligencia artificial para recrear voces: si se le ofrece al software un fragmento de audio hablado por una persona, se le puede hacer decir lo que sea con esa misma voz.

Con estas tecnologías, están en juego la protección de los derechos de las personas y el perjuicio contra instituciones, políticos y celebridades en un contexto donde la actualización de la legislación aún no tiene la velocidad exponencial del cambio tecnológico.

'La privacidad en la era digital es un tema recurrente que deriva en muchas complicaciones legales, por consecuencia, el Derecho sobre la Privacidad Individual será un campo de la abogacía que estará en auge', destaca Juan Bello, VP Digital Solutions de GlobalLogic Argentina.

'Hace días me preguntaba si podía suceder lo que muestra la serie de HBO de corte futurista Years and Years y ahora mismo tengo la sensación que está ocurriendo, está sucediendo.
Y estos cambios, si bien son facilitados por la tecnología, son cambios humanos' -aporta Diego Luque, Partner y Chief Strategy Officer de Picnic Latam-; estamos en una época en pleno movimiento, ante un cambio de era, moldeando el futuro entre la ilusión de mejoras y la incertidumbre'.

El deepfake de los 'candidatos' contra la desinformación

00:46 Video

Más preguntas que respuestas

Sin duda, nos encontramos frente a territorios no explorados donde el derecho está lejos de llegar.
dnaNUDGE es una startup que abrió sus puertas este noviembre en Londres instando a las personas a un 'mejor estilo de vida basado en tu ADN'.
La propuesta es mejorar las decisiones de compra teniendo en cuenta la información genética.
En el otro lado, ya hay empresas como Nebula Genomics que ofrecen a las personas ser dueñas del propio código genético para evitar que pueda ser explotado (el patentamiento del código genético humano está dando vueltas desde su primera secuenciación en 2000).

Hu-manity.co por su parte, es una empresa que busca que los particulares puedan monetizar su propia información médica.
Pero hay un tema ético y legal: ¿con qué fines se explotaría esa información? ¿puede la difusión de esos datos volverse en contra de las personas, de sus derechos o acceso a salud, seguros, trabajo? ¿Cómo evitar que gente en situación de necesidad pueda ser explotada?

Pero no sólo en temas de salud o ADN: también se puede comercializar la muerte (y la trascendencia después de fallecer).
En septiembre pasado, la productora de espectáculos holográfica BASE Hologram anunció las próximas fechas de 'Una noche con Whitney: the Whitney Houston Hologram Tour', una serie de tours que se celebrarán en 2020, donde los asistentes verán un holograma de la cantante cantando y bailando en el escenario con arreglos remasterizados digitalmente.

Y proyectos como hereafter.ai parecen ir tras la idea de que muerte no equivale a olvido.
Su creador construyó un chatbot que responde como su padre muerto.
Luego de compilar grabaciones orales las convirtió en un 'Dadbot', una especie de asistente de voz que responde a las consultas con la cadencia familiar de su padre. Su proyecto intenta que se 'capturar el verdadero espíritu de las personas y permitir que sus historias se vuelvan inmortales para sus seres queridos'.

¿Habrá que aclarar en los testamentos si no queremos que nuestra voz ni nuestra imagen sean utilizadas de manera alguna luego de nuestra muerte?

Los derechos del futuro

En su libro 'Inevitable', Kevin Kelly -editor de Wired y escritor- afirma que todo lo digital puede replicarse.
'Es un mundo donde el software se sigue comiendo al mundo, es probable que todas las características que nos hacen seres humanos sean replicables.
Estamos pensando más en entrar en un sistema que en las consecuencias de ello', explica Edwin Rager, especialista en estrategia.

Para Fernando Tomeo, abogado especialista en Derecho Digital, Privacidad y Datos Personales, el derecho del futuro pasará por aspectos vinculados a la industria del algoritmo, internet de las cosas y el universo de la inteligencia artificial.
'Todos ellos impactan definitivamente en la identidad digital, la protección de la privacidad y datos personales de los ciudadanos.
Será muy importante el trabajo de educación y concientización digital desde la familia, la institución escolar y el Estado como así también una regulación seria y razonable sobre tecnologías disruptivas'.

Otro supuesto más mundano surge de los daños que pueden derivarse de la realidad aumentada.
'Por ejemplo: si no hay un espacio preservado para una sesión de realidad aumentada, y salgo con una espada y una máscara de realidad virtual a matar guerreros imaginarios por la calle Florida, puedo generar daños a los transeúntes.
Idéntica situación ya se está planteando con el desarrollo de los vehículos autónomos y los daños que producen a los peatones, de hecho ya hay demandas planteadas en EE.UU.
por sendos casos ocurridos
', ejemplifica Agustín Allende, abogado especialista en Regulaciones y Compliance en Nuevas Tecnologías.

También hay nuevos ámbitos donde lo ético se cruza con el desarrollo de tecnología.
Angeles Cortesi, directora de LOBO y especialista en diseño de futuros, cree que los desafíos más difíciles de resolver van a venir del lado de la revolución en la ciencias de la vida.
'Cuando sea posible engendrar un niño de forma sintética, o que solo algunos puedan acceder a la tecnología que permite prolongar la vida, vendrán los mayores desafíos: ¿cómo conviven estas posibilidades con nuestros conceptos actuales de derecho a la vida, maternidad, paternidad?', reflexiona.

La tiranía del algoritmo

De acuerdo con Allende, uno de los roles de los abogados del futuro va a ser detectar y tratar de corregir los sesgos que arrojen los algoritmos y afecten de alguna manera los derechos de los ciudadanos.
'Imaginemos el caso de la justicia predictiva que me deniegue una excarcelación o eximición de prisión por considerar en forma equivocada mi probabilidad de cometer delitos futuros.
No aceptarme como miembro de una compañía de seguro por mi riesgo a enfermarme en virtud de las conductas que surgen de diferentes elementos (sensores, conductas en Internet que hacen predecir que no hago deporte, me alimento en forma desordenada y productos no saludables).
Ya existen regulaciones concretas, como en Nueva York, que regula la utilización de algoritmos por parte de la Administración Pública'.

Juan Pablo Altmark, Presidente de la Asociación Latinoamericana de Privacidad, afirma que es muy probable que en el futuro se vean casos de discriminación producidos por los propios algoritmos.
Y cita el proyecto piloto chino de Sistema de Crédito Social, actualmente en testeo en 12 ciudades.
El objetivo es analizar conductas cotidianas y que las mismas tengan créditos, lo cual iría generando un puntaje de cada ciudadano de acuerdo a su aporte a la comunidad, permitiéndole acceso a mejores trabajos, mejores servicios de salud, mejor educación para sus hijos, más tiempo libre, etc.
'Lo opuesto ocurriría con aquellas personas que no aporten lo suficiente.
El algoritmo no solo analiza el comportamiento de la persona sino también el de sus contactos, fomentando un aislamiento de aquellos individuos indeseados para el sistema'.

Yendo a otro terreno, la inteligencia artificial abre otros interrogantes.
No hace mucho se vendió la primera pintura generada por una AI, pero la persona que escribió el código original no recibió nada de dinero por la venta.
'¿Quién se llevará la regalías por derechos de autor si el día de mañana generamos un actor digital que sea la mezcla de dos o más personas reales? Y si una AI genera una melodía a partir de canciones de los Beatles: ¿a quién pertenece la canción? El problema que enfrentamos es que la tecnología avanza mucho más rápido que la cultura y la legislación', se pregunta Rager.

Una carrera desde atrás

'Hasta ahora nos hemos regido por normas que estaban prefabricadas, fenómenos que remitían a otros casos como base de jurisprudencia, pero en el último tiempo surgieron diversas situaciones que hacen que la concepción de qué es público y qué es privado quede absolutamente fuera de época.
Los hechos suceden más rápido que nuestro tiempo de procesamiento', subraya Luque.

En el marco del lanzamiento de los teléfonos inteligentes Pixel 4 de Google, de un nuevo altavoz inteligente (Nest) y otros productos, fue muy comentada la declaración de Rick Osterloh, jefe de dispositivos de Google al responder una consulta de un periodista, sobre si los dueños de casa deben advertirle a sus huéspedes que los dispositivos inteligentes, como un parlante como Nest o Amazon Echo, están en uso antes de ingresar hogar.
'Nunca lo había pensando de esa manera.
Lo haría cuando alguien entrara a mi casa, y probablemente sea algo que los productos mismos deberían tratar de indicar', se apuró a decir al ejecutivo.

'Asistentes virtuales y demás dispositivos conectados a internet requieren estar alineados con las leyes de protección de datos, donde 'privacidad por defecto' y 'seguridad por defecto' deberían ser la norma.
La masificación en el uso del 5G requerirá mayor compromiso de todos los actores', alerta Daniel Monastersky, abogado especialista en delitos informáticos.

Los conflictos entre el derecho y la tecnología del futuro seguramente estarán ligados al impacto que tenga el análisis de datos a escala masiva, lo que plantea un fuerte dilema.

'La posibilidad que pueda predecir conductas o inclusive modificarlas tendrá un impacto a nivel legal.
Pero, si se prohíbe o restringe fuertemente, ¿qué debería hacerse con los otros ámbitos donde el uso masivo de datos tendrá un beneficio evidente para la sociedad? Por ejemplo, el uso masivo de datos para predecir el comportamiento y atacar de la mejor forma células cancerígenas constituye un beneficio evidente para la sociedad toda, no solo desde el punto de vista de la salud, sino de manejos sanitarios, etc.', señala Diego Yanni, Líder de Accenture Digital para Sudamérica Hispana.

Con la tecnología avanzando a una velocidad distinta de las materias que se quieren regular, los países con mayor cantidad de normas sobre el impacto digital tienen relación con el grado de transformación digital en sus jurisdicciones.
Ejemplos claros de proyectos de regulaciones en estados como California o Washington, en EE.UU., dejan en claro que se trata de reacciones a situaciones vividas, por ejemplo en el caso del reconocimiento facial, y los proyectos de regulaciones después de experiencias con esa tecnología en San Francisco', especifica Mara Kipperband, Director, Legal Counsel de Accenture para Sudamérica Hispana.

En la Unión Europea se ha avanzado sustancialmente en la protección de la privacidad y datos personales con la entrada en vigencia el 25 de mayo de 2018 del Reglamento General de Protección de Datos (RGPD) y normas nacionales dictadas en consecuencia.
'La comisión europea estudia la legislación sobre inteligencia artificial y ya se han establecido pautas éticas de desarrollo', aclara Tomeo.

El RGPD establece un marco normativo heterogéneo en todos los países de la Unión, creando nuevos derechos como la Portabilidad de los Datos Personales (algo así como la portabilidad numérica implica poder llevarse los datos personales propios de una plataforma o servicio a otro) y creando nuevas reglas de juego como la aplicación extraterritorial (es decir, que aplica a empresas que estén fuera de la Unión Europea, pero traten datos de residentes europeos) o nuevas obligaciones para las organizaciones como el 'accountability' o la 'responsabilidad demostrada' (concepto que implica que quien debe cumplir con la norma, tiene también la obligación de demostrar a la autoridad de control que lo hace, esto requiere procedimientos internos, documentación, entrenamiento, auditorías).

'En Estados Unidos comienza a regir el 1 de enero próximo la ley de privacidad del Estado de California (CCPA) que será la antesala de una norma federal de protección de privacidad y datos personales en los Estados Unidos', explica Tomeo.

También existen proyectos de ley tales como 'Data Protection Act' (establece multas del 4% ingresos y hasta 20 años de prisión para los CEO de empresas tecnológicas que violen estándares de privacidad y seguridad en el tratamiento de datos de ciudadanos americanos), 'Algorithmic Accountability Act' (ley sobre responsabilidad algorítmica que obliga a las grandes empresas tecnológicas a revisar sus algoritmos periódicamente y reparar aquellos que generen decisiones discriminatorias, injustas o imprecisas por fallas en el diseño o distorsión de datos manipulados) y 'Deceptive Experiences To Online Users Reduction Act', que prohíbe a las grandes empresas tecnológicas utilizar diseños engañosos conocidos como 'patrones oscuros' que tienen por objeto manipular intencionalmente a los usuarios para que realicen acciones que de otra manera no llevarían a cabo.

La legislación argentina

En materia de privacidad y protección de datos en la Argentina rige la Constitución Nacional, el Código Civil y Comercial de la Nación, y la ley 25.326 de protección de datos personales.
'En lo demás existe vacío legislativo', coinciden los expertos.

'La Argentina, después de haber sido pionera en algunas materias, como privacidad al inicio del siglo, ha actuado siempre ex post facto, adoptado un acercamiento heterogéneo a la regulación de la transformación digital, quedando rezagados en algunas áreas (privacidad) y proponiendo normativas que facilitan la adopción de nuevas tecnologías ('cloud first policy', historia clínica digital, etc.).
Todo ello dependiendo de las jurisdicciones de que se trate: a nivel federal, de la ciudad de Buenos Aires, etc.', señala Kipperband.

'No obstante, frente a la sanción del GDPR, el Poder Ejecutivo envió en septiembre de 2018 un proyecto de reforma al Senado que intenta actualizar la norma equiparándola a los nuevos estándares europeos.
Lamentablemente, el proyecto aún no se debatió', apunta Altmark.

Lo palpable es que además de las lógicas dosis de asombro y optimismo, hay una fuerte sensación de desconcierto e incertidumbre frente a la vorágine tecnológica.

Si bien la transformación digital tiene que ver con disrupciones generadas por y para las personas, las diferentes velocidades entre el cambio tecnológico y la actualización de las instituciones humanas exigen responsabilidad de todos los actores: hay una interpelación fundamental al Estado y a la construcción de la sociedad, y es necesario pensar en nuevos derechos y obligaciones, que hagan foco en la defensa de los ciudadanos y eviten los abusos tecnológicos.

Por: Clarisa Herrera

Fuente: La Nación >> lea el artículo original