LA IA GENERATIVA Y SUS EFECTOS EN LA DESINFORMACIÓN

POR EMMA MANRING
LUCHA CONTRA LA DESINFORMACIÓN

Desde que ChatGPT hizo su aparición en noviembre de 2022, la inteligencia artificial generativa (IA) ha dominado la atención del público. Esta tecnología de rápida evolución ya está afectando a sectores como la educación, los viajes y la administración pública. Y los medios de comunicación no serán una excepción.

La IA generativa altera la manera en que se elaboran y consumen contenidos, lo que plantea nuevos desafíos en la lucha contra la desinformación. En una reciente clase magistral del proyecto Desarmar la desinformación del ICFJ, Aimee Rinehart, directora de producto de la estrategia de IA de AP, compartió sus ideas al respecto.

Imágenes

Rinehart señaló tres formas en que los periodistas pueden determinar si una imagen puede haber sido generada con IA.

1. Buscar detalles peculiares en las personas, como manos distorsionadas, una pierna de más o joyas desparejas.

2. Buscar distorsiones o desenfoques en el fondo de las imágenes, y examinar las sombras o la ausencia de ellas.

3. Buscar imágenes tomadas desde otros ángulos de cámara o fotografías similares para contrastar detalles.

Rinehart también compartió el método SIFT de fact-checking: detenerse, investigar la fuente, buscar coberturas del supuesto hecho, rastrear afirmaciones, citas y medios hasta su contexto original. El método fue desarrollado por Mike Caulfield, investigador científico del Center for an Informed Public de la Universidad de Washington.

«Estamos entrando en una era de nuevas tecnologías, pero es importante volver a lo básico para identificar la fuente del contenido», dijo.

Daño e impacto

Este año, las principales plataformas sociales dieron marcha atrás en sus esfuerzos por combatir la desinformación. Como resultado, en el futuro podría haber menos supervisión de los contenidos en línea, lo que podría aumentar la vulnerabilidad del público a la desinformación.

En Estados Unidos, los líderes republicanos también pretenden frenar el gasto federal destinado a investigar la información falsa en línea, lo que afectará nuestra comprensión del impacto público de la desinformación.

«Este congelamiento de fondos destinados a la investigación de la desinformación hará probablemente que sepamos menos sobre las elecciones de 2024 y que no entendamos dónde se producirán los daños, si es que se producen», dijo Rinehart.

Aun así, no es una conclusión inevitable que la IA generativa vaya a intensificar el consumo de desinformación. Un estudio reciente reveló que una mayor cantidad de contenidos falsos generados por IA no significa necesariamente que la gente los consuma más.

«Si la gente quiere contenidos problemáticos, los encuentra. No es que con la IA se vayan a ver inundados de desinformación y no tengan otra forma de acceder a contenidos válidos», dijo Rinehart.

Mejoras tecnológicas

Los avances en tecnología de IA están mejorando la calidad de los contenidos falsos, añadiendo detalles cada vez más realistas.

«DALL-E3 y probablemente ChatGPT4 y otros avances van a adivinar cada vez mejor lo que quisiste decir», dijo Rinehart.

Tanto los investigadores como los desarrolladores de software han demostrado que actualizar y mejorar la IA generativa es asequible y factible. Un estudio de WIRED mostró que los desarrolladores podían manipular el software para generar contenido antirruso por sólo US$400. Un científico de datos de Nueva Zelanda fue capaz de crear un chatbot de derechas por menos de US$300.

«Es probable que otras personas utilicen esto en su propio beneficio, ya sea porque se presentan a unas elecciones o porque dirigen un negocio y tienen mucho que ganar cambiando la narrativa», observó Rinehart.

Algunas empresas son pioneras en el rastreo de imágenes generadas por IA, aunque hasta la fecha han tenido un éxito desigual. Las marcas de agua, por ejemplo, pueden eludirse o manipularse fácilmente. OpenAI, por su parte, está desarrollando una herramienta de aprendizaje automático para identificar imágenes creadas por DALL-E, que se espera que tenga una precisión del 99%.

IA en las elecciones

La IA generativa jugará un papel cuando muchos países celebren elecciones en 2024. En Estados Unidos, ya se está utilizando en anuncios electorales, audio, videos e imágenes.

El equipo de campaña del candidato presidencial republicano, Ron DeSantis, generó imágenes falsas del expresidente Donald Trump y el exasesor médico jefe de la Casa Blanca, Anthony Fauci, abrazándose. En otro anuncio, un grupo del Comité de Acción Política (PAC) de DeSantis utilizó IA para generar la voz de Trump en un video que atacaba a la gobernadora republicana de Iowa, Kim Reynolds.

En países en los que se hablan muchos idiomas, la IA generativa puede ayudar a las campañas políticas a llegar a públicos a los que de otro modo no podrían llegar. En la India, por ejemplo, se empleó la tecnología en una canción viral humorística sobre el actual primer ministro, Narendra Modi, en varios idiomas diferentes.

«ChatGPT está en el radar de la gente. Creo que si eres fact-checker ya has visto las ramificaciones, especialmente en Estados Unidos», dijo Rinehart. «Y probablemente ya sepas que tu trabajo va a ser más difícil en los próximos dos o tres años. Si alguna vez hubo un momento para compartir recursos, tácticas y técnicas, ahora es el momento».

Desarmar la desinformación es un programa dirigido por el Centro Internacional para Periodistas (ICFJ) con financiación de la Fundación Scripps Howard, organización afiliada al Fondo Scripps Howard, que apoya los esfuerzos benéficos de The E.W. Scripps Company. El proyecto, de tres años de duración, capacitará a periodistas y estudiantes de periodismo para luchar contra la desinformación.

Foto de Mojahid Mottakin en Unsplash.

¿ESTAMOS REALMENTE PROTEGIDOS EN LA ERA DE LA INTELIGENCIA ARTIFICIAL?

Contribución especial del Grupo de Investigación de Derechos Digitales y Protección de Datos Personales del Departamento de Ciencias Jurídicas de la Universidad Técnica Particular de Loja.

En Ecuador, se promulgó la Ley Orgánica de Protección de Datos Personales en 2021, buscando fomentar una cultura de protección de datos y educación digital. Sin embargo, se observa que aún hay retos, como el uso indebido de la IA para crear imágenes falsas que vulneran los derechos de las personas.

La protección de datos e Inteligencia Artificial (IA) se relacionan con el uso de datos personales. Por ello, surge la preocupación y la interrogante: ¿cómo se utilizan los datos para el desarrollo de la IA? A esto se suman cuestiones relativas a la protección, el respeto a los derechos humanos y los marcos normativos implementados y aplicados en los ordenamientos jurídicos de los estados.

En este sentido, la Red Iberoamericana de Protección de Datos señaló en el año 2019 que “la regulación no solo tiene en cuenta los intereses del titular del dato, sino que también reconoce la necesidad de los datos para diversas actividades lícitas, legítimas y de interés general”. En todo caso, en abril de 2023, la Carta Iberoamericana de Principios de Derechos en Entornos Digitales ha advertido que “la innovación tecnológica y los nuevos desarrollos tecnológicos y científicos, tales como la Inteligencia Artificial, neurotecnologías o computación cuántica, entre otros, suponen retos que deben abordarse garantizando los derechos de las personas”.

Por ello, las reglas que se incorporen en cada Estado deben garantizar un adecuado uso y tratamiento de los datos para evitar abusos que vulneren los derechos de los titulares. En este contexto nacen las preguntas: ¿estamos realmente protegidos? ¿en qué medida la IA puede ser utilizada para vulnerar estos derechos? y ¿cómo proteger los datos personales en el tiempo actual?.

Para Luis Ordóñez, docente investigador de la UTPL, especialista en Derechos Digitales y Protección de Datos, que es justamente el nombre del grupo de investigación que dirige y estudia estos temas, indica que es necesario conocer y entender cuáles son las facultades de control que se desprenden del derecho fundamental a la protección de datos personales. Inicialmente, dichas facultades estaban enmarcadas en los denominados derechos ARCO: Acceso, Rectificación, Cancelación, y Oposición, los cuales permiten que los titulares de la información personal puedan controlar y decidir sobre sus datos frente al tratamiento que realiza una institución pública o privada cuando la información sea incorrecta, inexacta o vulnere un derecho o una libertad.

Sin embargo, con la evolución de las Tecnologías de la Información y la Comunicación, estas facultades de control han llegado a denominarse derechos ARCO +, incorporando otras facultades relacionadas con el derecho a la portabilidad de los datos y el derecho a no ser objeto de decisiones individuales automatizadas, permitiendo en este último caso ejercer un control de los datos a partir del uso y aplicación de la IA.

Si bien los titulares poseen los derechos de controlar sus datos, desde otra perspectiva emerge la importancia de la concientización para entregar y monitorear nuestra propia información. En todo caso, frente al tratamiento de datos realizado por terceros, también debe entenderse que existen obligaciones para proteger la información, particularmente de forma ética u observando normas deontológicas.

Así, tanto los responsables como los encargados del tratamiento de datos deben conocer los límites que tienen. Todo ello redunda en la importancia de saber qué datos debo o no compartir y, en suma, los riesgos que implica proporcionar información personal sensible como el número de identificación, condición socioeconómica, estado de salud o condición de género.

Ante lo expuesto, Luis Ordóñez señala que la doctrina y la jurisprudencia internacional han catalogado al derecho fundamental de protección de datos personales como un instituto de garantías para la defensa de otros derechos. Entre ellos, la intimidad, la privacidad, la imagen, la identidad, la libertad de expresión, el honor, la dignidad o el desarrollo de la personalidad.

En Ecuador, para garantizar los derechos de los titulares de los datos personales, en mayo de 2021 se promulgó la Ley Orgánica de Protección de Datos Personales. No obstante, en lo que se refiere al régimen de sanciones, este entró en vigor en mayo de 2023.

Ahora bien, conforme a lo resaltado en líneas anteriores, dicha Ley promueve la construcción de una cultura de protección de datos, sustentada en el derecho a la educación digital. Así, con estricto apego al respeto de la dignidad humana y de la integridad de las personas, se pretende generar entornos digitales seguros y equilibrados, basados sobre procesos de alfabetización. Sin duda, esto no solamente afecta a la labor de las instituciones educativas. En este ámbito, también cumplen un papel relevante los padres, las familias y la sociedad en general.

La Ley Orgánica de Protección de Datos Personales es sin duda una norma jurídica que respalda a las personas, pero parece que aquello no es suficiente. Las intromisiones ilegítimas en la vida privada de las personas a partir de tratamientos ilícitos se siguen presentando, y más aún con el desarrollo de la IA.

Un caso reciente que relata el experto Luis Ordóñez se dio “en la comunidad autónoma de Extremadura en España, donde adolescentes entre 12 y 14 años utilizaron inteligencia artificial para crear desnudos de mujeres adolescentes, compañeras dentro de una institución educativa”. La denuncia pública se difundió en diario El País el 18 de septiembre de 2023”.

Esto responde a dos cuestiones. En primer lugar, al desarrollo de tecnologías emergentes, que es ineludible. No podemos escapar al desarrollo tecnológico, pero, a la vez, recalcamos la importancia de la educación digital y de entender que existen límites en el ciberespacio.

Analizando el caso expuesto, las fotografías de desnudos creadas con IA son imágenes irreales obtenidas de estas herramientas en las cuales el cuerpo desnudo es falso, pero la imagen o el rostro de las mujeres adolescentes es real.

En este caso actúa el derecho fundamental a la protección de datos personales porque este protege en sí mismo a los datos personales. Desde esta perspectiva advertimos que un dato personal es todo aquello que nos identifica o hace identificables. Una imagen o el rostro de una persona constituye un dato personal.

En Ecuador existe la sentencia 2064 de la Corte Constitucional “Habeas data para impedir la divulgación de fotos íntimas”, en la cual se analiza las violaciones a la intimidad y privacidad a partir de intromisiones ilegítimas. En este plano, el desarrollo de tecnologías o tratamientos automatizados tienen que mirarse con mucho cuidado y, aún más, si hablamos de inteligencia artificial.

Particularmente, en el área de delitos informáticos, especial interés tiene el estudio de fraudes informáticos que se producen con la información expuesta por usuarios o por terceros en plataformas digitales o redes sociales, y que los ciberdelincuentes utilizan para suplantar la identidad de una persona a través de cualquier medio digital. Hay que tomar en cuenta que la suplantación de identidad se disparó más durante la pandemia, y en los casos denunciados en la Fiscalía se logró determinar responsabilidades.

Desde la perspectiva del Derecho Penal Informático interesa al grupo de investigación conductas relacionadas con el Grooming, descrito en el artículo 173 del Código Orgánico Integral Penal (COIP) que sanciona el delito de contacto con finalidad sexual con menores de 18 años por medios electrónicos.

Los delincuentes fingen ser menores de edad (suplantación de identidad) y se contactan con menores, principalmente por redes sociales, con fines sexuales. Además, dentro de esta línea, también atañen las últimas reformas que entraron en vigor en agosto de 2021, por las cuales se sanciona el acoso escolar y académico conocido como ciberbullying o ciberacoso.

Para conocer la incidencia del ciberacoso, el Grupo de Investigación de Derechos Digitales y Protección de Datos Personales está ejecutando un proyecto integrador, de investigación y vinculación con la colectividad, denominado “El ciberacoso en las comunidades de aprendizaje”.

Para este fin, se ha incorporado las precisiones que realiza la Corte Constitucional del Ecuador en la sentencia 456 que refiere a “La justicia restaurativa y derecho al debido proceso en contextos educativos / sexting” y que se aplicó en el caso de una estudiante que reenvió fotos íntimas de una compañera del colegio desde su teléfono y que fue sancionada con la suspensión y retiro de su dispositivo.

Según Ordóñez esto encaja perfectamente con las últimas prácticas que no solamente se dieron con el caso de España que había referido, sino también con un caso en nuestro país en un colegio ubicado en Quito en el cual un grupo de estudiantes a través del uso de inteligencia artificial crearon desnudos y los compartieron.

El proyecto en sí tiene por objeto analizar a profundidad la naturaleza del sexting como una práctica que eventualmente puede llegar a afectar la protección de datos personales y la vida privada de los adolescentes. La investigación tiene un tiempo de ejecución de dos años, al término de lo cual se dará a conocer resultados.

Colaboración académica en derechos digitales

En el área de protección de datos personales, el Grupo de Investigación de Derechos Digitales y Protección de Datos Personales conformado por 14 investigadores del Departamento de Ciencias Jurídicas de la Universidad Técnica Particular de Loja y colaboradores externos de la Universidad de Cádiz de España, de la Universidad San Andrés de Argentina y de la Pontificia Universidad Católica de Valparaíso de Chile, llevan a cabo proyectos de investigación y vinculación para profundizar en temas relacionados con los derechos digitales.

Esto, en el marco del Estado constitucional de derechos y justicia, protección de datos personales, gobernanza de datos e Inteligencia Artificial, administración electrónica, derecho laboral y tecnologías de la información y comunicación, derecho procesal en la era digital; propiedad intelectual e innovación, y delitos informáticos en la sociedad de la información.

La inteligencia artificial y la sostenibilidad en primer plano a medida que la industria dirige su atención al 2024

El pronóstico de tendencias de Vertiv prevé un enfoque en la habilitación de la IA y la gestión energética

Ecuador.- La intensa y urgente demanda de capacidades de inteligencia artificial (IA) y el duelo de presiones para reducir el consumo energético, los costos y las emisiones de gases de efecto invernadero son enormes en la industria de centros de datos a medida que nos acercamos al 2024.

La proliferación de la IA (según lo previó Vertiv hace dos años) junto con los desafíos de infraestructura y sostenibilidad inherentes a la computación con capacidades de AI pueden verse en la industria y en todo el pronóstico de tendencias del centro de datos para 2024 de Vertiv (NYSE: VRT), un proveedor mundial de soluciones de continuidad e infraestructura digital crítica.

“La IA y sus consecuencias en las necesidades energéticas y las densidades del centro de datos se han convertido en el argumento principal en nuestra industria”, señaló Giordano “Gio” Albertazzi, director ejecutivo de Vertiv. “Encontrar maneras de ayudar a los clientes a satisfacer la demanda de IA y reducir el consumo energético y las emisiones de gases de efecto invernadero es un desafío importante que exige nuevas colaboraciones entre los centros de datos, los fabricantes de chips y servidores, y los proveedores de infraestructura”, agregó.

De acuerdo con los expertos de Vertiv, estas serán las tendencias predominantes en el ecosistema de centros de datos en 2024:

1. La IA establece los términos para las construcciones nuevas y las remodelaciones: La creciente necesidad de inteligencia artificial en todas las aplicaciones está obligando a las organizaciones a hacer cambios significativos en sus operaciones. Las instalaciones existentes se encuentran mal equipadas para soportar la implementación generalizada de computación de alta densidad necesaria para la IA y muchas carecen de la infraestructura necesaria para el enfriamiento líquido. En los próximos años, una mayor cantidad de organizaciones se dará cuenta de que la mitad de las medidas no son suficientes y optarán por construcciones nuevas (con cada vez más soluciones prefabricadas que reducen los tiempos de implementación) o las remodelaciones a gran escala que alteran sustancialmente su infraestructura de potencia y enfriamiento. Estos cambios significativos presentan oportunidades para la implementación de más tecnologías y prácticas amigables con el ambiente, como el enfriamiento líquido para los servidores de A, junto con el gerenciamiento térmico de enfriamiento por aire para soportar todo el espacio del centro de datos.

2. Ampliar la búsqueda de nuevas alternativas de almacenamiento de energía: Las nuevas tecnologías y enfoques de almacenamiento de energía han mostrado la capacidad de integrarse de manera inteligente con la red eléctrica y cumplir con un importante objetivo: reducir el uso de los generadores. Los sistemas de almacenamiento de energía con baterías (BESS) soportan tiempos de operación prolongados al transferir la carga según sea necesario y por un mayor tiempo. Además, pueden integrarse a la perfección con fuentes de energía alternativa, como la solar o las celdas de combustible, lo cual minimiza el uso de generadores y reduce su impacto ambiental. Las instalaciones con BESS serán cada vez más comunes en 2024 y pasarán a ser modelos de “trae tu propia potencia” (BYOP, por sus siglas en inglés) y ofrecer la capacidad, la confiabilidad y la rentabilidad necesarias para soportar la demanda impulsada por la IA.

3. Las empresas darán prioridad a la flexibilidad: Aunque los proveedores de servicios de coubicaciones y en la nube buscan agresivamente nuevas implementaciones para satisfacer la demanda, es probable que las organizaciones de centros de datos empresariales diversifiquen las inversiones y las estrategias de implementación. La IA es un factor clave; las organizaciones luchan por encontrar la mejor manera de habilitar y aplicar la tecnología sin dejar de cumplir con los objetivos de sostenibilidad. Las empresas podrían empezar a buscar capacidad en las instalaciones para soportar la IA patentada y la implementación de aplicaciones de borde puede verse afectada por los vientos favorables de la IA. Es posible que muchas organizaciones den prioridad a un incremento gradual de las inversiones (apoyadas en gran medida en soluciones modulares prefabricadas) y al servicio y el mantenimiento para prolongar la vida útil de los equipos existentes. Estos servicios pueden ofrecer beneficios complementarios, optimizar la operación para liberar capacidad en entornos informáticos al límite y aumentar la eficiencia energética en el proceso. Asimismo, las organizaciones pueden reducir las emisiones de carbono de Alcance 3 por medio de prolongar la vida útil de los servidores existentes en lugar de reemplazarlos y desecharlos.

4. La carrera hacia la nube se enfrenta a retos en seguridad: Gartner estima que el gasto global en servicios de nube pública aumentará un 20,4 % en 2024 y la migración masiva a la nube no da señales de disminuir. Esto hace que los proveedores de servicios en la nube se vean forzados a aumentar la capacidad rápidamente para soportar la demanda de IA y la computación de alto rendimiento, y seguirán recurriendo a los socios de coubicaciones alrededor del mundo para facilitar esta ampliación. Para los usuarios de la nube que se trasladan cada vez más datos fuera del sitio, la seguridad es fundamental, y según Gartner, el 80 % de los directores de tecnologías de la información (CIO) tiene planeado aumentar el gasto en seguridad cibernética y de la información en 2024. Las normativas nacionales y regionales de la seguridad de los datos son dispares y pueden crear desafíos de seguridad complejos a medida que continúan los esfuerzos por la estandarización.

“Los centros de datos serán uno de los cambios de mayor impacto en la historia, debido en gran parte a la adopción de IA y sus necesidades térmicas y de potencia de alta capacidad. El período transitorio entre hoy y el futuro presenta desafíos.

En Latinoamérica, seremos testigos de muchos proyectos de remodelación de centros de datos de forma simultánea con construcciones nuevas para alojar aplicaciones de IA. En todos los casos, las tecnologías nuevas y las competencias profesionales son obligatorias”, mencionó Rafael Garrido, vicepresidente de Vertiv Latinoamérica.