y cientos de expertos piden una pausa en la
Inteligencia Artificial por “grandes riesgos”
Télam, 29 de marzo
de 2023
El dueño de
Twitter y fundador de Tesla y SpaceX, Elon Musk, y cientos de expertos
mundiales firmaron hoy un llamado para hacer una pausa de seis meses en la
investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4,
el modelo de OpenAI lanzado este mes, al advertir “grandes riesgos para la
humanidad”.
En la petición
publicada en el sitio futureoflife.org pidieron una moratoria hasta que se
establezcan sistemas de seguridad con nuevas autoridades reguladoras,
vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo
real y lo artificial, e instituciones capaces de hacer frente a la “dramática
perturbación económica y política (especialmente para la democracia) que
causará la IA”.
El pedido está
firmado por personalidades que expresaron sus temores sobre una IA
incontrolable que supere a los humanos, como Musk y el historiador Yuval Noah
Hariri, según consignó la agencia de noticias AFP.
Por su parte, el
director de Open AI, que diseñó ChatGPT, Sam Altman, reconoció tener “un poco
de miedo” de que su creación se utilice para “desinformación a gran escala o
ciberataques”.
“La empresa
necesita tiempo para adaptarse”, declaró Altman recientemente a ABCNews.
En la petición,
los expertos afirman que “en los últimos meses hemos visto cómo los
laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar
y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus
creadores, pueden entender, predecir o controlar de manera fiable”-
“¿Debemos permitir
a las máquinas inundar nuestros canales de información con propaganda y
mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes?
¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas
decisiones no deben delegarse en líderes tecnológicos no electos”, concluyeron.
Entre los
firmantes también figuran el cofundador de Apple, Steve Wozniak, miembros del
laboratorio de AI DeepMind de Google, el director de Stability AI, Emad
Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros
ejecutivos de Microsoft, empresa aliada de OpenAI.