{"multiple":false,"video":{"key":"bGRcPG","duration":"00:10:51","type":"video","download":""}}

La inteligencia artificial (I.A.) está avanzando a pasos agigantados, dejando muchas interrogantes tales como ¿Qué pasará con nuestros empleos? ¿Es un peligro o un avance en nuestra calidad de vida?

Para hablar sobre este tema es que Rodolfo Vega, miembro del Instituto de Tecnologías del Lenguaje (LTI) de la Escuela de Ciencia de la Computación de la Universidad de Carnegie Mellon (CMU), Pittsburgh (Estados Unidos), estableció una conversación con Humberto Sichel.

Lee también: Inteligencia artificial: Los robots podrían traducir idiomas, redactar ensayos y conducir camiones antes de 2030

Vega explica que viene del área de la educación y que se ha especializado en tecnologías del lenguaje, que aplicando ciencia de la computación, explora el uso de sistemas inteligentes en el procesamiento del lenguaje natural humano y en el desarrollo de sistemas computacionales de interacción humano/computador, tales como el caso de máquinas de traducción simultánea, captura de lenguaje humano y el proceso de aprendizaje de las I.A. para la interacción con las personas.

Cuando se le pregunta si existe una necesidad de “alfabetización digital” en relación a la inteligencia artificial, el experto señala que no sería necesaria ya que está presente en todas las cosas, tales como celulares, autos y en tecnologías como Siri o Alexa.

De la misma forma, el académico explica que en su Instituto se investiga y experimenta con diversas técnicas de I.A. y en machine learning: “Esto empieza con algunos algoritmos básicos, luego [a la I.A.] se le integra una ‘data de entrenamiento’, para luego ser puesto a prueba con una máquina que no tenga dichas especialidades adquiridas, es muy parecido a cómo aprende una persona. Diría que es una réplica de cómo el ser humano aprende”.

Lee también: Date cuenta antes que sea demasiado tarde: Ahora la inteligencia artificial puede crear caras falsas

Para ejemplificar, Vega apunta que un equipo de su instituto, a través de un contrato de investigación y desarrollo con IBM, desarrolló la parte fundamental de una I.A. llamada Watson. Cabe señalar que Eric Nyberg, académico del LTI, junto a un equipo de estudiantes del doctorado, desarrollaron Watson.

En este mismo sentido, Vega se refirió al caso de Deep Blue, de IBM, cuyo desarrollo se inició en UCM, un sistema de inteligencia artificial que en 1996 logró ganarle al campeón mundial de ajedrez Gary Kasparov. El sistema de inteligencia artificial que lo sucedió, Watson, le ganó a los competidores más exitosos de Jeopardy (famoso programa de preguntas y respuestas, estadounidense).

Cuando se le pregunta cuáles son los límites morales de estas sistemas inteligentes, el experto afirma: “Primero que nada las máquinas no son neutrales porque son desarrolladas y usadas por un ser humano. La intención humana es la que la hace ser buena o mala.”

Vega afirma que el riesgo de las inteligencias artificiales está en directa relación con cómo las personas las usan: “Mientras el ser humano sea un peligro para sus pares, obviamente va a existir un gran riesgo”. Dentro del mismo parámetro, el académico menciona que las guerras cibernéticas y el espionaje se producen por esto.

Lee también: Los desafíos y soluciones para un mundo donde todos usarán la Inteligencia Artificial

De la misma forma refiere a los avances científicos de la incorporación de máquinas al cuerpo humano, apuntando que: “El ingenio humano va empujando cada vez más a la cienciaficción”. Ejemplifica con avances tales cómo la incorporación de partes robóticas para mejorar o arreglar las conexiones ópticas del cerebro.

“Nuestro trabajo como científicos es lograr que las máquinas sientan, para que puedan tomar decisiones éticas”, afirmó Vega. Finalmente concluye que no hay que temer a las máquinas ya que “nosotros como seres humanos nos adaptaremos a los cambios externos que nos presente la tecnología”.

Tags:

Deja tu comentario


Estreno

Martes / 22:30 / CNN Chile