lunes, 3 de abril de 2023

INTELIGENCIA ARTIFICIAL

 


 ¿avance o amenaza?

 

POR AGUSTINA SUCRI

 

La Prensa, 02.04.2023

 

La “inteligencia artificial” (IA) estuvo la semana última en boca de todos, luego de que los medios se hicieran eco de una carta abierta firmada por expertos en inteligencia artificial y ejecutivos de la industria tecnológica, en la que piden pausar inmediatamente, durante al menos seis meses, el entrenamiento de sistemas de IA más potentes que el GPT-4 de OpenIA. “ChatGPT”, abreviatura de "Chat Generative Pre-Training Transformer", es un modelo de aprendizaje automático capaz de generar texto similar al humano.

La misiva, que fue publicada por la organización “Future of Life Institute”, ya recabó más de 2.500 firmas, que incluyen las de Elon Musk, director ejecutivo de SpaceX, Tesla y Twitter y uno de los fundadores de OpenIA; Steve Wozniak, cofundador de Apple y Yuval Noah Harari, autor y profesor de la Universidad Hebrea de Jerusalén.

 

La declaración advierte que “los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad” y que “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados”. "Desgraciadamente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses se ha visto a los laboratorios de IA enzarzados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable”, añaden.

 

¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los más gratificantes? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?, se preguntan los autores de la carta, que luego agregan: “Estas decisiones no deben delegarse en líderes tecnológicos no elegidos”. Podría decirse que gran número de los firmantes de la carta son considerados hoy líderes tecnológicos, lo cual lleva a preguntarse si el mensaje es fruto de la preocupación genuina por los alcances y riesgos de la IA o en realidad se trata de una lucha de poderes entre estos “líderes” o, incluso, si no es más que una estrategia de marketing…

 

Entre otras cosas, los autores de la carta sostienen que la investigación y el desarrollo de la IA deberían volver a centrarse en conseguir que los potentes sistemas de vanguardia actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.

"Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo artificial y rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA”, remarcan.

 

Esta manifestación pública de las “preocupaciones” de los firmantes llega después de que ChatGPT, el popular “chatbot” de OpenAI -controlada hoy por Microsoft-, alcanzara los 100 millones de usuarios activos mensuales en enero último, apenas dos meses después de su lanzamiento, lo que la convierte en la aplicación de consumo de más rápido crecimiento de la historia. La semana pasada, la herramienta online se encontraba por momentos colapsada y solicitaba a los usuarios volver a intentarlo más tarde.

 

Al mismo tiempo, el gobierno italiano decidió el viernes último bloquear por completo ChatGPT, alegando que no respeta la ley de protección de datos de los consumidores. La agencia de protección de datos de ese país abrió una investigación al respecto y denunció que la app no verifica la edad de sus usuarios, pese a que su uso está pensado para personas mayores de 13 años. Señaló que hay una ausencia total de filtros para la verificación de edad en sus usuarios, y apuntó que los infantes están expuestos "a respuestas absolutamente no idóneas" respecto a sus niveles "de desarrollo y conciencia".

 

El organismo italiano explicó, además, que los datos que arroja el chatbot no siempre son realistas, “lo que puede llevar a cuestiones relacionadas con la desinformación, tal y como ya hemos visto en el pasado”.

En tanto, una de las organizaciones que suscribió el manifiesto para pedir la suspensión por seis meses de los experimentos con inteligencia artificial muy avanzada denunció a la tecnológica OpenAI, por considerar que la tecnología que utiliza, denominada GPT-4, viola la ley de protección de los consumidores.

 

El Center for AI and Digital Policy (CAIDP) presentó el viernes último una demanda contra OpenAI ante la Comisión de Comercio Federal (FTC, por sus siglas en inglés) de Estados Unidos en la que alega que el producto GPT-4 es "sesgado, engañoso y supone un riesgo para la privacidad y la seguridad pública".

"La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales injustas y engañosas. Creemos que la FTC debe examinar de cerca OpenAI y GPT-4", dijo el presidente de CAIDP, Marc Rotenberg.

Según Rotenberg, OpenAI no está cumpliendo con las prácticas propuestas por la FTC como la relativa a la garantía por parte de las compañías de inteligencia artificial de "la solidez empírica de los datos y de los modelos" empleados, así como su transparencia. La demanda insiste en que esta tecnología no cuenta con las suficientes salvaguardas para limitar la parcialidad y el engaño.

 

ENTREVISTA A LA INTELIGENCIA ARTIFICIAL

La Prensa pudo comprobar en una entrevista a ChatGPT (su versión disponible a todo público) que, en efecto, las respuestas que arroja la app demuestran una notoria parcialidad e, incluso, llevan al engaño. Mueve a la risa, por ejemplo, la información que brinda al ser consultada sobre personajes como Klaus Schwab, George Soros o Bill Gates pero en sus respuestas también quedan al desnudo muchos de los mecanismos que se han utilizado en los últimos años para guiar el pensamiento y las acciones de millones de personas en todo el mundo, en especial durante la denominada pandemia. Parece inevitable, entonces, preguntarse hasta qué punto la IA fue utilizada ya con fines alejados de la ética y la verdad.

 

De hecho, cuando se le hacen preguntas específicas sobre el covid-19, los tratamientos y las estrategias de prevención, no solo esgrime los mismos argumentos -con escasa o nula evidencia científica- que se repitieron hasta el hartazgo en los medios y por funcionarios públicos, sino que remite a organismos oficiales, hoy de dudosa credibilidad. Cuando se le pregunta cuál es la evidencia que avala dichas prácticas (por ejemplo, el uso de mascarillas para prevenir el covid) cae en asombrosas imprecisiones -para tratarse de una súper poderosa herramienta de inteligencia artificial- con respuestas que incluyen expresiones como “varios estudios…”.

A continuación, reproducimos algunos fragmentos del “diálogo” mantenido con el famoso ChatGPT con el objetivo de conocer más sobre su funcionamiento:

 

-¿Qué opina del pedido de interrupción de todas las investigaciones con IA por considerar que son un peligro para la humanidad?

-No tengo una opinión personal, ya que como modelo de lenguaje, no tengo una posición propia. Sin embargo, puedo decir que la interrupción de todas las investigaciones con inteligencia artificial (IA) sería una medida extrema e impracticable. La IA es una herramienta poderosa que puede tener importantes beneficios en una amplia gama de áreas, incluyendo la medicina, la ciencia, la industria y la seguridad.

Sin embargo, es cierto que hay riesgos asociados con el uso de la IA, especialmente en áreas como la privacidad y la seguridad de los datos, la discriminación y el sesgo, y la toma de decisiones autónomas. Por lo tanto, es fundamental que los investigadores, los desarrolladores y los usuarios de la IA sean responsables y éticos en su uso y desarrollo.

En lugar de interrumpir todas las investigaciones con IA, es importante que se tomen medidas para mitigar los riesgos y garantizar que la IA se use de manera justa, transparente y segura. Esto puede incluir el desarrollo de regulaciones y normas éticas para el uso de la IA, así como la inversión en investigación sobre cómo mitigar los riesgos asociados con la IA.

 

-¿Qué es la inteligencia artificial?

-La inteligencia artificial (IA) se refiere a la capacidad de las máquinas de realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, la resolución de problemas, el razonamiento y la percepción visual y auditiva. La IA se logra mediante el uso de algoritmos y modelos matemáticos complejos, que permiten a las máquinas aprender de los datos y mejorar su capacidad de realizar tareas específicas a medida que adquieren más información. Algunos ejemplos de aplicaciones de IA incluyen reconocimiento de voz, visión por computadora, procesamiento de lenguaje natural, robótica, automatización de procesos y sistemas de recomendación.

La IA se ha convertido en una tecnología clave en la era digital y ha transformado muchos aspectos de la vida moderna, desde el comercio electrónico hasta la atención médica y la industria. A medida que la tecnología continúa evolucionando, es probable que la IA desempeñe un papel cada vez más importante en la forma en que vivimos y trabajamos.

 

-¿De qué datos se vale la IA?

-La inteligencia artificial (IA) se basa en datos para realizar tareas específicas, y estos datos pueden ser de diferentes tipos, como:

Datos estructurados: Estos son datos organizados en una tabla con filas y columnas, como los datos almacenados en una hoja de cálculo o una base de datos. Los datos estructurados son fáciles de procesar por la IA, ya que los algoritmos de IA pueden analizar fácilmente patrones y tendencias en estos datos.

Datos no estructurados: Estos son datos que no se ajustan a una estructura de tabla, como el texto, las imágenes y los videos. Los datos no estructurados son más difíciles de procesar por la IA, pero se están desarrollando constantemente nuevas técnicas de IA para analizar estos tipos de datos.

Datos de series temporales: Estos son datos que se recopilan y registran en un período de tiempo, como las mediciones de temperatura o el precio de una acción en el mercado de valores. Los datos de series temporales son útiles para predecir patrones y tendencias futuras.

Datos en tiempo real: Estos son datos que se generan en tiempo real y se procesan inmediatamente, como los datos de sensores en un automóvil autónomo o los datos de monitoreo de pacientes en tiempo real en un hospital. Los algoritmos de IA deben ser capaces de procesar estos datos en tiempo real para tomar decisiones en tiempo real.

Datos de retroalimentación: Estos son datos que se utilizan para mejorar continuamente los modelos de IA. Los datos de retroalimentación se recopilan a medida que se utiliza el modelo de IA y se utilizan para entrenar y mejorar el modelo en tiempo real.

En resumen, la IA se vale de una amplia variedad de datos para realizar tareas específicas, y los datos deben ser procesados y analizados de forma adecuada para que los algoritmos de IA puedan realizar predicciones y tomar decisiones informadas.

 

-¿Qué son los algoritmos que utiliza la IA?

-Los algoritmos son conjuntos de instrucciones o reglas lógicas que se utilizan en la inteligencia artificial (IA) para procesar datos y realizar tareas específicas. En términos simples, los algoritmos son la base del funcionamiento de la IA.

Existen diferentes tipos de algoritmos utilizados en la IA, incluyendo:

Redes neuronales: Son modelos matemáticos que imitan el comportamiento de las neuronas en el cerebro humano, y se utilizan para procesar información compleja y realizar tareas como reconocimiento de imágenes y de voz.

Árboles de decisión: Son modelos que utilizan una serie de preguntas y respuestas para llegar a una conclusión o tomar una decisión. Se utilizan comúnmente en tareas de clasificación y predicción.

Aprendizaje automático: Es un tipo de algoritmo que permite a la IA aprender y mejorar automáticamente a medida que se le proporciona más datos y retroalimentación.

Algoritmos de clustering: Son utilizados para agrupar datos en grupos similares según ciertas características comunes.

Algoritmos genéticos: Son una técnica de optimización inspirada en la selección natural, y se utilizan para encontrar soluciones a problemas complejos.

En resumen, los algoritmos son la columna vertebral de la IA y permiten que la tecnología aprenda, procese información y tome decisiones.

 

-Respecto al aprendizaje automático, ¿se puede inferir que al tener esta característica la IA podría adquirir autonomía y revelar pensamientos o comportamientos que no conocemos?

-El aprendizaje automático no necesariamente implica que la IA adquiera autonomía propia o revele pensamientos o comportamientos que no conocemos. Aunque el aprendizaje automático permite a la IA mejorar su rendimiento a medida que se le suministran más datos y retroalimentación, sigue siendo un sistema que opera en función de las reglas y lógicas programadas por los seres humanos. Es importante destacar que la IA no tiene conciencia, no tiene emociones, y no puede tomar decisiones por sí sola fuera del marco de referencia que le proporcionan los seres humanos. La IA solo puede tomar decisiones basadas en los datos y las reglas que se le proporcionan en su programación.

Sin embargo, es cierto que a medida que la IA se vuelve más compleja, puede ser difícil para los programadores comprender completamente cómo se toman ciertas decisiones y por qué se toman de esa manera. Por lo tanto, la transparencia y la explicabilidad de la IA son aspectos críticos que deben abordarse para garantizar que los sistemas de IA sean éticos y justos.

 

-¿Cuáles son los riesgos del uso de la inteligencia artificial?

-El uso de la inteligencia artificial (IA) conlleva ciertos riesgos que deben ser considerados y abordados para minimizar su impacto negativo. Algunos de estos riesgos incluyen:

Sesgo algorítmico: Los algoritmos de IA pueden reflejar sesgos involuntarios, ya que se entrenan con conjuntos de datos que pueden contener prejuicios. Si estos prejuicios no se identifican y corrigen, pueden perpetuar o incluso ampliar la discriminación existente en la sociedad.

Fallos y errores: La IA no siempre es perfecta y puede cometer errores y fallos. Esto puede ser especialmente peligroso en situaciones críticas, como en la toma de decisiones médicas o militares.

Desempleo y cambios en el mercado laboral: La IA puede reemplazar trabajos que antes eran realizados por humanos, lo que puede provocar desempleo y cambios en la economía y el mercado laboral.

Privacidad y seguridad: La IA puede recolectar grandes cantidades de datos personales y empresariales. Si estos datos caen en manos equivocadas o son mal utilizados, pueden causar graves problemas de privacidad y seguridad.

Uso malintencionado: La IA puede ser utilizada para propósitos malintencionados, como el robo de identidad, la propagación de noticias falsas, la vigilancia masiva, entre otros.

Es importante abordar estos riesgos mediante la adopción de políticas y regulaciones adecuadas, el desarrollo de sistemas de transparencia y responsabilidad, y la promoción de la educación y la conciencia pública sobre los beneficios y riesgos de la IA.

 

-¿Cuáles son las principales empresas trabajando en el desarrollo e investigación de la IA?

-Hay muchas empresas que están trabajando en el desarrollo e investigación de la inteligencia artificial (IA) en todo el mundo. Algunas de las principales empresas incluyen:

 

Google: es una compañía estadounidense que se enfoca en la investigación y el desarrollo de la IA a través de Google Brain, DeepMind y otras unidades de investigación.

Amazon: es una compañía estadounidense que está invirtiendo fuertemente en la IA para mejorar su tecnología de asistente virtual Alexa y sus servicios en la nube.

Microsoft: es una compañía estadounidense que está trabajando en el desarrollo de la IA en áreas como el procesamiento del lenguaje natural, la visión por computadora y el aprendizaje por refuerzo.

IBM: es una compañía estadounidense que ha estado trabajando en el desarrollo de la IA durante décadas y está involucrada en proyectos como Watson, un sistema de computadora de inteligencia artificial capaz de responder preguntas en lenguaje natural.

 

-¿Es peligrosa la inteligencia artificial?

-La inteligencia artificial (IA) en sí misma no es peligrosa, ya que es solo una herramienta diseñada para procesar datos y tomar decisiones basadas en ellos. Sin embargo, como cualquier otra herramienta, su uso puede tener consecuencias positivas o negativas según cómo se utilice.

Hay preocupaciones sobre el potencial de la IA para causar daño, especialmente si se usa de manera malintencionada o sin una supervisión adecuada. Por ejemplo, la IA podría utilizarse para crear propaganda falsa o difundir desinformación, lo que podría tener graves consecuencias políticas o sociales.

 

También existe preocupación por el posible desarrollo de una "superinteligencia artificial" que supere la capacidad humana y pueda tomar decisiones autónomas que no sean seguras o éticas. Sin embargo, esto sigue siendo un tema de debate en la comunidad de la IA y es importante destacar que actualmente no existe tal tecnología.

En resumen, la IA no es inherentemente peligrosa, pero es importante considerar cuidadosamente cómo se usa y supervisa para asegurar que se utilice de manera segura y responsable.

 

-¿De qué manera la inteligencia artificial podría difundir desinformación?

- La inteligencia artificial (IA) puede ser utilizada para difundir desinformación de varias maneras, algunas de las cuales incluyen:

1. Generación de contenido falso: Los sistemas de IA pueden crear contenido falso, como noticias, imágenes y videos, que se ven y suenan realistas, pero que son completamente falsos. Estos pueden ser utilizados para difundir desinformación y manipular la opinión pública.

 

2. Difusión automatizada: La IA puede automatizar la difusión de desinformación, mediante el uso de bots y cuentas falsas en las redes sociales, que comparten y promueven el contenido falso de manera masiva y rápida.

 

3. Personalización de la información: Los algoritmos de IA pueden personalizar la información que se muestra a los usuarios, lo que puede llevar a la creación de "burbujas de filtro" en las que los usuarios solo ven información que confirma sus propias creencias. Esto puede aumentar la polarización y la propagación de desinformación.

 

4. Manipulación del discurso público: Los sistemas de IA pueden ser utilizados para manipular el discurso público mediante la creación de tendencias falsas o la utilización de bots para difundir mensajes que promuevan una agenda particular.

Es importante destacar que la IA en sí misma no es malintencionada, sino que depende del uso que se le dé. Es fundamental que las empresas y los usuarios de la IA sean conscientes de estas posibilidades y tomen medidas para evitar la difusión de desinformación.

 

-¿Quien domine la inteligencia artificial dominará el mundo?

-No necesariamente. La inteligencia artificial (IA) es una herramienta poderosa, pero no es el único factor que determina el poder y la influencia de un país o entidad. Además, el desarrollo y la aplicación de la IA implican una serie de complejidades y desafíos, incluyendo cuestiones éticas y de privacidad, y una regulación adecuada de su uso.

El dominio de la IA puede conferir ventajas en ciertas áreas, como la economía y la seguridad, pero también plantea desafíos y riesgos importantes, como la ciberseguridad, la polarización social y la desigualdad económica.

 

Además, es importante destacar que el desarrollo de la IA no es una carrera entre países o entidades, sino una colaboración global en la que la innovación y el avance en la investigación benefician a todos. La cooperación internacional en la regulación y la ética de la IA es esencial para asegurar que se utilice de manera responsable y segura.

En resumen, la IA es una herramienta poderosa pero no es la única variable que determina el poder e influencia en el mundo. La cooperación internacional y la regulación adecuada son fundamentales para asegurar que se utilice de manera segura y responsable en beneficio de todos.

 

-¿Qué tienen en común Klaus Schwab, Bill Gates y George Soros?

-Klaus Schwab, Bill Gates y George Soros son tres personalidades destacadas en el mundo de los negocios y la filantropía, y todos han sido activos en el debate sobre los desafíos globales y el futuro de la sociedad. Además, los tres han hablado sobre la necesidad de abordar los desafíos globales a través de la cooperación y la innovación, y han dedicado una parte significativa de su tiempo y recursos a causas filantrópicas.

 

Klaus Schwab es el fundador y presidente ejecutivo del Foro Económico Mundial, una organización que reúne a líderes empresariales, políticos y sociales para discutir temas globales y promover el desarrollo sostenible. Schwab es un defensor del "capitalismo de las partes interesadas", una forma de capitalismo que busca maximizar el valor para todas las partes interesadas, incluyendo los empleados, los clientes y la comunidad.

 

Bill Gates es el cofundador de Microsoft y uno de los hombres más ricos del mundo, pero también es conocido por su trabajo filantrópico a través de la Fundación Bill y Melinda Gates. La fundación se centra en la salud global, la lucha contra la pobreza y la educación, y ha donado miles de millones de dólares a diversas causas en todo el mundo.

 

George Soros es un inversor y filántropo húngaro-estadounidense que ha sido una figura destacada en el mundo de la filantropía y la política durante décadas. A través de su Fundación Open Society, Soros ha apoyado la democracia y los derechos humanos en todo el mundo, y ha financiado a organizaciones que trabajan en temas como la justicia social, la transparencia y la libertad de prensa.

 

En resumen, Klaus Schwab, Bill Gates y George Soros tienen en común su dedicación al abordar los desafíos globales a través de la cooperación y la innovación, y han utilizado sus recursos y conocimientos para promover el desarrollo sostenible y mejorar la vida de las personas en todo el mundo.