(CNN en Español) — La inteligencia artificial (IA) es uno de los temas en boga del 2023. Su irrupción masiva mediante ChatGPTBingBard o Midjourney —por mencionar unos pocos ejemplos— ha puesto a la IA en lo más alto de la conversación.

En los últimos meses hemos sido testigos de las grandes capacidades de la IA: desde convertir en “influencer” a una obra de arte del pintor italiano Sandro Botticelli, desarrollar un robot masajeador que puede aprender los puntos de tensión de cada paciente, guardar energía con espejos, y hasta elegir un mejor fondo de acciones que expertos financieros.

Sin embargo, como suele suceder cuando toda tecnología masiva está en auge, los aspectos negativos de la IA han salido a la luz, en muchos casos con énfasis especial en la cuestión laboral o los derechos de autor.

Estos aspectos negativos han acaparado los reflectores porque se han dado en un contexto en el que múltiples personalidades —desde empresarios hasta académicos y expertos del mundo tecnológico— advierten sobre los peligros que traerá consigo la inteligencia artificial.

De acuerdo con Juan Graña, analista de datos senior especializado en temas de comunicación y desinformación, estas advertencias se clasifican, a grandes rasgos, en dos grupos:

  • Uno que advierte sobre los peligros para la sociedad en general
  • Otro más apocalíptico que se enfoca en el colapso de la humanidad

“Lo que presentan en el riesgo para la humanidad es más una visión apocalíptica en la cual dentro de poco tiempo las personas no podrían controlar a la inteligencia artificial (…). Por el otro lado, están quienes plantean los riesgos para la sociedad, que son los riesgos más inmediatos desde los puestos de trabajo que pueden verse afectados hasta decisiones que se automatizan con IA”, lo que podría afectar sobre todo a grupos minoritarios, dijo Graña en entrevista con CNN en Español.

A continuación, te presentamos algunas de esas advertencias que se han hecho sobre la IA.

Las advertencias sobre la inteligencia artificial

1. Inteligencia artificial consciente

En julio del año pasado, un ingeniero de Google fue despedido por la empresa debido a una cuestión que en esos momentos no causaba tanto impacto como ahora en el público en general.

Blake Lemoine, quien es esos momentos era ingeniero de software de Google, afirmó que una tecnología de conversación llamada LaMDA (o “Modelo de Lenguaje para Aplicaciones de Diálogo”) había alcanzado un nivel de consciencia tras intercambiar miles de mensajes con ella.

Aunque parece sacado de una película de ciencia ficción, la compañía estadounidense logró crear un algoritmo de inteligencia artificial que “cobra vida” y mantiene una conversación como una persona real. Un ex empleado de la gigante tecnológica afirmó que el programa “había alcanzado un nivel de conciencia”.

La autoconsciencia de las máquinas —que estaría en el grupo de riesgo para la humanidad que explicó Graña— pertenece al terreno de la ciencia ficción desde hace décadas, pero también es tema del campo de la IA. No obstante, como Google Cloud menciona en su sitio web, este nivel en el que un sistema sería consciente de su propia existencia es algo que no existe hasta la fecha.

Tras las declaraciones de Lemoine, la comunidad de la IA en general sostuvo que LaMDA no está cerca de un nivel de consciencia.

“Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente”, dijo Gary Marcus, fundador y director general de Geometric Intelligence, a CNN Business.

Pese a ello, con el desarrollo actual de la IA, algunos se han alarmado más que otros, como veremos en los siguientes casos.

2. Pausa de seis meses

Febrero de 2023 debe quedar en el calendario histórico de la tecnología, pues fue el mes en que la inteligencia artificial comenzó su masificación y nombres como ChatGPT, OpenAI, Bard o Bing se popularizaron.

“Antes era una cuestión que sólo alguien con un programador o con ciertos conocimientos técnicos podía hacer; hoy es algo que está al alcance de la mano de una persona con el suficiente tiempo para hacer las preguntas que tienes que hacer para programarlo”, indicó Graña.

Desde entonces, la IA ha escalado de forma abrupta, a tal punto que desencadenó una de las advertencias más amplias hasta la fecha.

Desde su lanzamiento, ChatGPT se ha utilizado para generar ensayos de estudiantes, escribir votos matrimoniales y componer sermones conmovedores para pastores y rabinos.

Profesores, investigadores y líderes del mundo de la tecnología, entre ellos Elon Musk, pidieron en marzo que los laboratorios de inteligencia artificial (IA) detengan el entrenamiento de los sistemas de IA más poderosos durante al menos seis meses, citando “riesgos profundos para la sociedad y la humanidad”.

Por medio una carta, que fue publicada por Future of Life Institute —una organización sin fines de lucro respaldada por Musk—, los firmantes dijeron que la pausa debería aplicarse a los sistemas de IA “más poderosos que GPT-4”, que es la versión más actual y poderosa de ChatGPT.

También dijeron que los expertos independientes deberían usar la pausa propuesta para desarrollar e implementar conjuntamente un conjunto de protocolos compartidos para herramientas de IA que sean seguras “más allá de toda duda razonable”.

3. Cambios inevitables en el mundo laboral

Una de las advertencias más sonadas respecto a la IA es en el campo de los empleos.

Más que una alarma apocalíptica, esta advertencia se centra en el grupo de los riesgos de la sociedad, pues plantea un escenario inevitable: el mundo laboral se va a transformar y no hay vuelta atrás, por lo que las instituciones y la población deben estar preparadas en conjunto para ello.

En marzo, economistas de Goldman Sachs señalaron que hasta 300 millones de empleos de tiempo completo en todo el mundo podrían automatizarse de alguna manera con la nueva ola de inteligencia artificial.

Se espera que los trabajadores administrativos y los abogados sean los más afectados, dijeron los economistas, en comparación con el “poco efecto” que la IA tendrá en las ocupaciones físicas o al aire libre, como los trabajos de construcción y reparaciones en general.

El chatbot con inteligencia artificial (IA) ha puesto la tecnología en manos del público en general, con el potencial de guiar las decisiones de los inversores minoristas.

Si bien los lugares de trabajo pueden cambiar, la adopción generalizada de la IA podría, en última instancia, aumentar la productividad laboral y aumentar el PIB mundial en un 7% anual durante un periodo de 10 años, según Goldman Sachs.

Por su parte, el Foro Económico Mundial (WEF por sus siglas en inglés) indicó en un informe publicado este mes que empresas de todo el mundo esperan una pérdida neta de 14 millones de empleos en los próximos cinco años, esto a medida que se debilita la economía y se impulsa a las tecnologías de IA.

Muchos factores alimentarán la agitación del mercado laboral durante el periodo señalado por el WEF. El cambio a sistemas de energía renovable será un motor poderoso para generar empleos, mientras que un crecimiento económico más lento y una inflación alta generarán pérdidas. Asimismo, la prisa por implementar sistemas de inteligencia artificial servirá como una fuerza tanto positiva como negativa.

4. Entre prohibiciones y oportunidades

Algunas advertencias, que se mueven en los terrenos de ambos grupos mencionados por Graña, han acabado en prohibiciones y también en llamados a realizar cambios.

Por ejemplo, en marzo el Gobierno de Italia hizo sonar las alarmas respecto a ChatGPT por una preocupación respecto a una posible violación de la protección de datos. Esto llevó a la administración a bloquear el acceso a la herramienta de OpenAI hasta que se respete la regulación prevista.

También en este sentido, recientemente Samsung prohibió de manera temporal el uso de inteligencia artificial generativa en los dispositivos de la empresa.

La decisión se tomó después de que su personal usó IA generativa, como ChatGPT, en el dispositivo de su empresa a principios de abril, lo que provocó preocupaciones de seguridad, dijo un vocero de Samsung. La empresa realizó una encuesta al respecto, en la que el 65% de los encuestados estuvo de acuerdo en que el uso de dicha tecnología representa un riesgo para la seguridad.

Boris Eldagsen

Boris Eldagsen.

Pero, así como hay prohibiciones, hay advertencias que abren paso a las oportunidades.

En abril, el artista alemán Boris Eldagsen rechazó el premio del concurso de fotografía Sony World Photography Award tras revelar que la obra que presentó, llamada Pseudomnesia: The Electrician, había sido generada por inteligencia artificial.

Los organizadores del concurso afirmaron que sabían que había algo de inteligencia artificial involucrada, pero señalaron que hubo un intento “deliberado” por engañarlos. Eldagsen dijo que esperaba que sus acciones abrieran la conversación en torno a este asunto y llevaran a “concursos separados para imágenes generadas por IA”.

“Las imágenes de inteligencia artificial y la fotografía no deberían competir entre sí en un premio como este. Son ámbitos diferentes. La inteligencia artificial no es fotografía. Por lo tanto, no aceptaré el premio”, agregó.

5. La advertencia del “padrino de la IA”

Mayo empezó de forma vertiginosa en el terreno de la inteligencia artificial. Geoffrey Hinton, considerado el “padrino de la inteligencia artificial”, confirmó que dejó su puesto en Google la semana pasada para alertar sobre los “peligros” de la tecnología que él mismo ayudó a desarrollar.

El trabajo pionero de Hinton sobre redes neuronales dio forma a los sistemas de inteligencia artificial que impulsan muchos de los productos actuales.

Hinton dijo que renunció a Google para poder hablar libremente sobre los peligros de la inteligencia artificial, más que por un deseo de criticar específicamente a Google.

En una entrevista con The New York Times, Hinton se sumó a las preocupaciones sobre el potencial de la inteligencia artificial para eliminar puestos de trabajo y crear un mundo en el que muchos “ya no serán capaces de saber qué es verdad”. También señaló el asombroso ritmo de avance, mucho más allá de lo que él y otros habían previsto.

Geoffrey Hinton, el “padrino de la inteligencia artificial”.

“La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas, unos pocos lo creían”, dijo Hinton en la entrevista. “Pero la mayoría pensaba que no era así. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso”.

En conversación con Jake Tapper de CNN, Hinton señaló que si la inteligencia artificial “llega a ser mucho más inteligente que nosotros, será muy buena manipulando porque lo habrá aprendido de nosotros”.

Hinton le dijo a CNN que no tiene claro cómo resolver el problema en este momento y que la solución es algo para lo cual hay que trabajar, teniendo en cuenta, además, que el desarrollo de esta tecnología no se puede detener: “No creo que podamos detener el progreso. No firmé la petición diciendo que deberíamos dejar de trabajar en IA porque si la gente en Estados Unidos se detuviera, la gente en China no lo haría”.

Tags:

Deja tu comentario


Estreno

Martes / 22:30 / CNN Chile