¿avance o amenaza?
POR AGUSTINA SUCRI
La Prensa,
02.04.2023
La “inteligencia
artificial” (IA) estuvo la semana última en boca de todos, luego de que los
medios se hicieran eco de una carta abierta firmada por expertos en
inteligencia artificial y ejecutivos de la industria tecnológica, en la que
piden pausar inmediatamente, durante al menos seis meses, el entrenamiento de
sistemas de IA más potentes que el GPT-4 de OpenIA. “ChatGPT”, abreviatura de
"Chat Generative Pre-Training Transformer", es un modelo de
aprendizaje automático capaz de generar texto similar al humano.
La misiva, que fue
publicada por la organización “Future of Life Institute”, ya recabó más de
2.500 firmas, que incluyen las de Elon Musk, director ejecutivo de SpaceX,
Tesla y Twitter y uno de los fundadores de OpenIA; Steve Wozniak, cofundador de
Apple y Yuval Noah Harari, autor y profesor de la Universidad Hebrea de
Jerusalén.
La declaración
advierte que “los sistemas de IA con una inteligencia competitiva con la humana
pueden plantear profundos riesgos para la sociedad y la humanidad” y que “la IA
avanzada podría representar un cambio profundo en la historia de la vida en la
Tierra, y debería planificarse y gestionarse con el cuidado y los recursos
adecuados”. "Desgraciadamente, este nivel de planificación y gestión no
se está produciendo, a pesar de que en los últimos meses se ha visto a los
laboratorios de IA enzarzados en una carrera fuera de control para desarrollar
y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus
creadores- puede entender, predecir o controlar de forma fiable”, añaden.
¿Debemos dejar que
las máquinas inunden nuestros canales de información con propaganda y
falsedades? ¿Debemos automatizar todos los trabajos, incluidos los más
gratificantes? ¿Debemos desarrollar mentes no humanas que con el tiempo nos
superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos
arriesgarnos a perder el control de nuestra civilización?, se preguntan los
autores de la carta, que luego agregan: “Estas decisiones no deben delegarse en
líderes tecnológicos no elegidos”. Podría decirse que gran número de los
firmantes de la carta son considerados hoy líderes tecnológicos, lo cual lleva
a preguntarse si el mensaje es fruto de la preocupación genuina por los
alcances y riesgos de la IA o en realidad se trata de una lucha de poderes entre
estos “líderes” o, incluso, si no es más que una estrategia de marketing…
Entre otras cosas,
los autores de la carta sostienen que la investigación y el desarrollo de la IA
deberían volver a centrarse en conseguir que los potentes sistemas de vanguardia
actuales sean más precisos, seguros, interpretables, transparentes, robustos,
alineados, fiables y leales.
"Paralelamente,
los desarrolladores de IA deben trabajar con los responsables políticos para
acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la
IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y
capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA
altamente capaces y grandes reservas de capacidad computacional; sistemas de
procedencia y marca de agua para ayudar a distinguir lo real de lo artificial y
rastrear las fugas de modelos; un ecosistema sólido de auditoría y
certificación; responsabilidad por los daños causados por la IA; financiación
pública sólida para la investigación técnica de seguridad de la IA; e
instituciones bien dotadas de recursos para hacer frente a las drásticas
perturbaciones económicas y políticas (especialmente para la democracia) que
causará la IA”, remarcan.
Esta manifestación
pública de las “preocupaciones” de los firmantes llega después de que ChatGPT,
el popular “chatbot” de OpenAI -controlada hoy por Microsoft-, alcanzara los
100 millones de usuarios activos mensuales en enero último, apenas dos meses
después de su lanzamiento, lo que la convierte en la aplicación de consumo de
más rápido crecimiento de la historia. La semana pasada, la herramienta online
se encontraba por momentos colapsada y solicitaba a los usuarios volver a
intentarlo más tarde.
Al mismo tiempo,
el gobierno italiano decidió el viernes último bloquear por completo ChatGPT,
alegando que no respeta la ley de protección de datos de los consumidores. La
agencia de protección de datos de ese país abrió una investigación al respecto
y denunció que la app no verifica la edad de sus usuarios, pese a que su uso
está pensado para personas mayores de 13 años. Señaló que hay una ausencia
total de filtros para la verificación de edad en sus usuarios, y apuntó que los
infantes están expuestos "a respuestas absolutamente no idóneas"
respecto a sus niveles "de desarrollo y conciencia".
El organismo
italiano explicó, además, que los datos que arroja el chatbot no siempre son
realistas, “lo que puede llevar a cuestiones relacionadas con la
desinformación, tal y como ya hemos visto en el pasado”.
En tanto, una de
las organizaciones que suscribió el manifiesto para pedir la suspensión por
seis meses de los experimentos con inteligencia artificial muy avanzada
denunció a la tecnológica OpenAI, por considerar que la tecnología que utiliza,
denominada GPT-4, viola la ley de protección de los consumidores.
El Center for AI
and Digital Policy (CAIDP) presentó el viernes último una demanda contra OpenAI
ante la Comisión de Comercio Federal (FTC, por sus siglas en inglés) de Estados
Unidos en la que alega que el producto GPT-4 es "sesgado, engañoso y
supone un riesgo para la privacidad y la seguridad pública".
"La FTC tiene
la clara responsabilidad de investigar y prohibir las prácticas comerciales
injustas y engañosas. Creemos que la FTC debe examinar de cerca OpenAI y
GPT-4", dijo el presidente de CAIDP, Marc Rotenberg.
Según Rotenberg,
OpenAI no está cumpliendo con las prácticas propuestas por la FTC como la
relativa a la garantía por parte de las compañías de inteligencia artificial de
"la solidez empírica de los datos y de los modelos" empleados, así
como su transparencia. La demanda insiste en que esta tecnología no cuenta con
las suficientes salvaguardas para limitar la parcialidad y el engaño.
ENTREVISTA A LA
INTELIGENCIA ARTIFICIAL
La Prensa pudo
comprobar en una entrevista a ChatGPT (su versión disponible a todo público)
que, en efecto, las respuestas que arroja la app demuestran una notoria
parcialidad e, incluso, llevan al engaño. Mueve a la risa, por ejemplo, la
información que brinda al ser consultada sobre personajes como Klaus Schwab,
George Soros o Bill Gates pero en sus respuestas también quedan al desnudo
muchos de los mecanismos que se han utilizado en los últimos años para guiar el
pensamiento y las acciones de millones de personas en todo el mundo, en
especial durante la denominada pandemia. Parece inevitable, entonces,
preguntarse hasta qué punto la IA fue utilizada ya con fines alejados de la
ética y la verdad.
De hecho, cuando
se le hacen preguntas específicas sobre el covid-19, los tratamientos y las
estrategias de prevención, no solo esgrime los mismos argumentos -con escasa o
nula evidencia científica- que se repitieron hasta el hartazgo en los medios y
por funcionarios públicos, sino que remite a organismos oficiales, hoy de
dudosa credibilidad. Cuando se le pregunta cuál es la evidencia que avala
dichas prácticas (por ejemplo, el uso de mascarillas para prevenir el covid)
cae en asombrosas imprecisiones -para tratarse de una súper poderosa
herramienta de inteligencia artificial- con respuestas que incluyen expresiones
como “varios estudios…”.
A continuación,
reproducimos algunos fragmentos del “diálogo” mantenido con el famoso ChatGPT
con el objetivo de conocer más sobre su funcionamiento:
-¿Qué opina del
pedido de interrupción de todas las investigaciones con IA por considerar que
son un peligro para la humanidad?
-No tengo una
opinión personal, ya que como modelo de lenguaje, no tengo una posición propia.
Sin embargo, puedo decir que la interrupción de todas las investigaciones con
inteligencia artificial (IA) sería una medida extrema e impracticable. La IA es
una herramienta poderosa que puede tener importantes beneficios en una amplia
gama de áreas, incluyendo la medicina, la ciencia, la industria y la seguridad.
Sin embargo, es
cierto que hay riesgos asociados con el uso de la IA, especialmente en áreas
como la privacidad y la seguridad de los datos, la discriminación y el sesgo, y
la toma de decisiones autónomas. Por lo tanto, es fundamental que los
investigadores, los desarrolladores y los usuarios de la IA sean responsables y
éticos en su uso y desarrollo.
En lugar de
interrumpir todas las investigaciones con IA, es importante que se tomen
medidas para mitigar los riesgos y garantizar que la IA se use de manera justa,
transparente y segura. Esto puede incluir el desarrollo de regulaciones y
normas éticas para el uso de la IA, así como la inversión en investigación
sobre cómo mitigar los riesgos asociados con la IA.
-¿Qué es la
inteligencia artificial?
-La inteligencia
artificial (IA) se refiere a la capacidad de las máquinas de realizar tareas
que normalmente requieren inteligencia humana, como el aprendizaje, la
resolución de problemas, el razonamiento y la percepción visual y auditiva. La
IA se logra mediante el uso de algoritmos y modelos matemáticos complejos, que
permiten a las máquinas aprender de los datos y mejorar su capacidad de
realizar tareas específicas a medida que adquieren más información. Algunos
ejemplos de aplicaciones de IA incluyen reconocimiento de voz, visión por
computadora, procesamiento de lenguaje natural, robótica, automatización de
procesos y sistemas de recomendación.
La IA se ha
convertido en una tecnología clave en la era digital y ha transformado muchos
aspectos de la vida moderna, desde el comercio electrónico hasta la atención
médica y la industria. A medida que la tecnología continúa evolucionando, es
probable que la IA desempeñe un papel cada vez más importante en la forma en
que vivimos y trabajamos.
-¿De qué datos se
vale la IA?
-La inteligencia
artificial (IA) se basa en datos para realizar tareas específicas, y estos
datos pueden ser de diferentes tipos, como:
Datos
estructurados: Estos son datos organizados en una tabla con filas y columnas,
como los datos almacenados en una hoja de cálculo o una base de datos. Los
datos estructurados son fáciles de procesar por la IA, ya que los algoritmos de
IA pueden analizar fácilmente patrones y tendencias en estos datos.
Datos no
estructurados: Estos son datos que no se ajustan a una estructura de tabla,
como el texto, las imágenes y los videos. Los datos no estructurados son más
difíciles de procesar por la IA, pero se están desarrollando constantemente
nuevas técnicas de IA para analizar estos tipos de datos.
Datos de series
temporales: Estos son datos que se recopilan y registran en un período de
tiempo, como las mediciones de temperatura o el precio de una acción en el
mercado de valores. Los datos de series temporales son útiles para predecir
patrones y tendencias futuras.
Datos en tiempo
real: Estos son datos que se generan en tiempo real y se procesan
inmediatamente, como los datos de sensores en un automóvil autónomo o los datos
de monitoreo de pacientes en tiempo real en un hospital. Los algoritmos de IA
deben ser capaces de procesar estos datos en tiempo real para tomar decisiones
en tiempo real.
Datos de
retroalimentación: Estos son datos que se utilizan para mejorar continuamente
los modelos de IA. Los datos de retroalimentación se recopilan a medida que se
utiliza el modelo de IA y se utilizan para entrenar y mejorar el modelo en
tiempo real.
En resumen, la IA
se vale de una amplia variedad de datos para realizar tareas específicas, y los
datos deben ser procesados y analizados de forma adecuada para que los
algoritmos de IA puedan realizar predicciones y tomar decisiones informadas.
-¿Qué son los
algoritmos que utiliza la IA?
-Los algoritmos
son conjuntos de instrucciones o reglas lógicas que se utilizan en la
inteligencia artificial (IA) para procesar datos y realizar tareas específicas.
En términos simples, los algoritmos son la base del funcionamiento de la IA.
Existen diferentes
tipos de algoritmos utilizados en la IA, incluyendo:
Redes neuronales:
Son modelos matemáticos que imitan el comportamiento de las neuronas en el
cerebro humano, y se utilizan para procesar información compleja y realizar
tareas como reconocimiento de imágenes y de voz.
Árboles de
decisión: Son modelos que utilizan una serie de preguntas y respuestas para
llegar a una conclusión o tomar una decisión. Se utilizan comúnmente en tareas
de clasificación y predicción.
Aprendizaje
automático: Es un tipo de algoritmo que permite a la IA aprender y mejorar
automáticamente a medida que se le proporciona más datos y retroalimentación.
Algoritmos de
clustering: Son utilizados para agrupar datos en grupos similares según ciertas
características comunes.
Algoritmos
genéticos: Son una técnica de optimización inspirada en la selección natural, y
se utilizan para encontrar soluciones a problemas complejos.
En resumen, los
algoritmos son la columna vertebral de la IA y permiten que la tecnología
aprenda, procese información y tome decisiones.
-Respecto al
aprendizaje automático, ¿se puede inferir que al tener esta característica la
IA podría adquirir autonomía y revelar pensamientos o comportamientos que no
conocemos?
-El aprendizaje
automático no necesariamente implica que la IA adquiera autonomía propia o
revele pensamientos o comportamientos que no conocemos. Aunque el aprendizaje
automático permite a la IA mejorar su rendimiento a medida que se le
suministran más datos y retroalimentación, sigue siendo un sistema que opera en
función de las reglas y lógicas programadas por los seres humanos. Es
importante destacar que la IA no tiene conciencia, no tiene emociones, y no
puede tomar decisiones por sí sola fuera del marco de referencia que le
proporcionan los seres humanos. La IA solo puede tomar decisiones basadas en
los datos y las reglas que se le proporcionan en su programación.
Sin embargo, es
cierto que a medida que la IA se vuelve más compleja, puede ser difícil para
los programadores comprender completamente cómo se toman ciertas decisiones y
por qué se toman de esa manera. Por lo tanto, la transparencia y la
explicabilidad de la IA son aspectos críticos que deben abordarse para
garantizar que los sistemas de IA sean éticos y justos.
-¿Cuáles son los
riesgos del uso de la inteligencia artificial?
-El uso de la
inteligencia artificial (IA) conlleva ciertos riesgos que deben ser
considerados y abordados para minimizar su impacto negativo. Algunos de estos
riesgos incluyen:
Sesgo algorítmico:
Los algoritmos de IA pueden reflejar sesgos involuntarios, ya que se entrenan
con conjuntos de datos que pueden contener prejuicios. Si estos prejuicios no
se identifican y corrigen, pueden perpetuar o incluso ampliar la discriminación
existente en la sociedad.
Fallos y errores:
La IA no siempre es perfecta y puede cometer errores y fallos. Esto puede ser
especialmente peligroso en situaciones críticas, como en la toma de decisiones
médicas o militares.
Desempleo y
cambios en el mercado laboral: La IA puede reemplazar trabajos que antes eran
realizados por humanos, lo que puede provocar desempleo y cambios en la
economía y el mercado laboral.
Privacidad y
seguridad: La IA puede recolectar grandes cantidades de datos personales y
empresariales. Si estos datos caen en manos equivocadas o son mal utilizados,
pueden causar graves problemas de privacidad y seguridad.
Uso malintencionado:
La IA puede ser utilizada para propósitos malintencionados, como el robo de
identidad, la propagación de noticias falsas, la vigilancia masiva, entre
otros.
Es importante
abordar estos riesgos mediante la adopción de políticas y regulaciones adecuadas,
el desarrollo de sistemas de transparencia y responsabilidad, y la promoción de
la educación y la conciencia pública sobre los beneficios y riesgos de la IA.
-¿Cuáles son las
principales empresas trabajando en el desarrollo e investigación de la IA?
-Hay muchas
empresas que están trabajando en el desarrollo e investigación de la
inteligencia artificial (IA) en todo el mundo. Algunas de las principales
empresas incluyen:
Google: es una
compañía estadounidense que se enfoca en la investigación y el desarrollo de la
IA a través de Google Brain, DeepMind y otras unidades de investigación.
Amazon: es una
compañía estadounidense que está invirtiendo fuertemente en la IA para mejorar
su tecnología de asistente virtual Alexa y sus servicios en la nube.
Microsoft: es una
compañía estadounidense que está trabajando en el desarrollo de la IA en áreas
como el procesamiento del lenguaje natural, la visión por computadora y el
aprendizaje por refuerzo.
IBM: es una
compañía estadounidense que ha estado trabajando en el desarrollo de la IA
durante décadas y está involucrada en proyectos como Watson, un sistema de
computadora de inteligencia artificial capaz de responder preguntas en lenguaje
natural.
-¿Es peligrosa la
inteligencia artificial?
-La inteligencia
artificial (IA) en sí misma no es peligrosa, ya que es solo una herramienta
diseñada para procesar datos y tomar decisiones basadas en ellos. Sin embargo,
como cualquier otra herramienta, su uso puede tener consecuencias positivas o
negativas según cómo se utilice.
Hay preocupaciones
sobre el potencial de la IA para causar daño, especialmente si se usa de manera
malintencionada o sin una supervisión adecuada. Por ejemplo, la IA podría
utilizarse para crear propaganda falsa o difundir desinformación, lo que podría
tener graves consecuencias políticas o sociales.
También existe
preocupación por el posible desarrollo de una "superinteligencia
artificial" que supere la capacidad humana y pueda tomar decisiones
autónomas que no sean seguras o éticas. Sin embargo, esto sigue siendo un tema
de debate en la comunidad de la IA y es importante destacar que actualmente no
existe tal tecnología.
En resumen, la IA
no es inherentemente peligrosa, pero es importante considerar cuidadosamente
cómo se usa y supervisa para asegurar que se utilice de manera segura y
responsable.
-¿De qué manera la
inteligencia artificial podría difundir desinformación?
- La inteligencia
artificial (IA) puede ser utilizada para difundir desinformación de varias
maneras, algunas de las cuales incluyen:
1. Generación de
contenido falso: Los sistemas de IA pueden crear contenido falso, como
noticias, imágenes y videos, que se ven y suenan realistas, pero que son
completamente falsos. Estos pueden ser utilizados para difundir desinformación
y manipular la opinión pública.
2. Difusión
automatizada: La IA puede automatizar la difusión de desinformación, mediante
el uso de bots y cuentas falsas en las redes sociales, que comparten y
promueven el contenido falso de manera masiva y rápida.
3. Personalización
de la información: Los algoritmos de IA pueden personalizar la información que
se muestra a los usuarios, lo que puede llevar a la creación de "burbujas
de filtro" en las que los usuarios solo ven información que confirma sus
propias creencias. Esto puede aumentar la polarización y la propagación de
desinformación.
4. Manipulación
del discurso público: Los sistemas de IA pueden ser utilizados para manipular
el discurso público mediante la creación de tendencias falsas o la utilización
de bots para difundir mensajes que promuevan una agenda particular.
Es importante
destacar que la IA en sí misma no es malintencionada, sino que depende del uso
que se le dé. Es fundamental que las empresas y los usuarios de la IA sean
conscientes de estas posibilidades y tomen medidas para evitar la difusión de
desinformación.
-¿Quien domine la
inteligencia artificial dominará el mundo?
-No
necesariamente. La inteligencia artificial (IA) es una herramienta poderosa,
pero no es el único factor que determina el poder y la influencia de un país o
entidad. Además, el desarrollo y la aplicación de la IA implican una serie de
complejidades y desafíos, incluyendo cuestiones éticas y de privacidad, y una
regulación adecuada de su uso.
El dominio de la
IA puede conferir ventajas en ciertas áreas, como la economía y la seguridad,
pero también plantea desafíos y riesgos importantes, como la ciberseguridad, la
polarización social y la desigualdad económica.
Además, es
importante destacar que el desarrollo de la IA no es una carrera entre países o
entidades, sino una colaboración global en la que la innovación y el avance en
la investigación benefician a todos. La cooperación internacional en la
regulación y la ética de la IA es esencial para asegurar que se utilice de
manera responsable y segura.
En resumen, la IA
es una herramienta poderosa pero no es la única variable que determina el poder
e influencia en el mundo. La cooperación internacional y la regulación adecuada
son fundamentales para asegurar que se utilice de manera segura y responsable
en beneficio de todos.
-¿Qué tienen en
común Klaus Schwab, Bill Gates y George Soros?
-Klaus Schwab,
Bill Gates y George Soros son tres personalidades destacadas en el mundo de los
negocios y la filantropía, y todos han sido activos en el debate sobre los
desafíos globales y el futuro de la sociedad. Además, los tres han hablado
sobre la necesidad de abordar los desafíos globales a través de la cooperación
y la innovación, y han dedicado una parte significativa de su tiempo y recursos
a causas filantrópicas.
Klaus Schwab es el
fundador y presidente ejecutivo del Foro Económico Mundial, una organización
que reúne a líderes empresariales, políticos y sociales para discutir temas
globales y promover el desarrollo sostenible. Schwab es un defensor del
"capitalismo de las partes interesadas", una forma de capitalismo que
busca maximizar el valor para todas las partes interesadas, incluyendo los
empleados, los clientes y la comunidad.
Bill Gates es el
cofundador de Microsoft y uno de los hombres más ricos del mundo, pero también
es conocido por su trabajo filantrópico a través de la Fundación Bill y Melinda
Gates. La fundación se centra en la salud global, la lucha contra la pobreza y
la educación, y ha donado miles de millones de dólares a diversas causas en
todo el mundo.
George Soros es un
inversor y filántropo húngaro-estadounidense que ha sido una figura destacada
en el mundo de la filantropía y la política durante décadas. A través de su
Fundación Open Society, Soros ha apoyado la democracia y los derechos humanos
en todo el mundo, y ha financiado a organizaciones que trabajan en temas como
la justicia social, la transparencia y la libertad de prensa.
En resumen, Klaus
Schwab, Bill Gates y George Soros tienen en común su dedicación al abordar los
desafíos globales a través de la cooperación y la innovación, y han utilizado
sus recursos y conocimientos para promover el desarrollo sostenible y mejorar
la vida de las personas en todo el mundo.