Hacia ciudades inteligentes,
sustentables e inclusivas.

Claude, impulsado por el chat GPT y creado por IA Anthropic obtuvo un “aprobado marginal” en la Universidad George Mason de Virginia (Estados Unidos). Tuvo mejores notas que muchos alumnos y ya empiezan a desconfiar de la buena fe de la IA para el futuro.

Por primera vez en la historia, un chatbot que funciona con inteligencia artificial (IA) superó un examen de derecho a nivel universitario. Se trata de Claude, un bot desarrollado por la firma de investigación y seguridad de IA Anthropic, y utilizado por Alex Tabarrok para este experimento facultativo. 

A partir de la IA busca desarrollar la capacidad de aprender por medio del reconocido machine learning. La prueba fue superada con un “aprobado marginal” en la  Universidad George Mason en Virginia.

Fue el propio Tabarrok, docente de la institución quien ofreció al bot para la prueba. La base de este bot es el reconocido Chat GPT, aunque en esta oportunidad explicaron que se trata de una versión mejorada

Si bien Claude obtuvo mejor calificación que muchos de sus compañeros humanos, el docente explicó  que notó “debilidades en las respuestas, ya que se notó que era principalmente una opinión”. Aún así, Tabarrok explicó: “Sigue siendo una respuesta creíble y mejor que muchas respuestas humanas”.

Si bien el docente obtuvo el permiso de la institución para realizar el test, los docentes no estaban enterados para evitar algún tipo de recelo o prejuicio al respecto. Sin embargo, al enterarse todos quedaron sorprendidos ya que obtuvo mejores calificaciones que muchos alumnos. 

¿SE ENCIENDEN ALARMAS?

Lógicamente el crecimiento tecnológico exponencial genera visiones y sensaciones contrapuestas. Esto claro, si bien por un lado genera una sensación de asombro, simultáneamente despierta cierto temor en la sociedad en general, ya que la IA promete grandes desarrollos para la humanidad pero también implica un gran riesgo. Incluso este propio Chat GPT reconoce los riesgos de su mal uso. 

Un ejemplo alegórico es el que el economista español Carlos Ares publicó en su cuenta de Linkedin, a partir de algunas preguntas realizadas a la IA. El hombre consultó al GPT qué sucedería en caso de que el supervillano de DC comics Lex Luthor pudiera adueñarse de la IA a su favor. La respuesta fue la siguiente: 

“Si una super inteligencia artificial fuera utilizada por un supervillano con objetivos maliciosos y sin ningún tipo de restricciones éticas o morales podría causar un gran daño, y podría ser muy difícil de detener. Por ejemplo, podría controlar sistemas críticos como centrales nucleares, infraestructuras energéticas, aeronaves, sistemas de defensa, o incluso manipular a las personas a través de la información o la persuasión. Esto podría causar un gran caos y sufrimiento en todo el mundo. Es importante tener en cuenta que es vital desarrollar sistemas de IA con medidas de seguridad y ética adecuadas para evitar este tipo de escenarios”.

La alarma está encendida, pese a que de momento los destellos tecnológicos se llevan toda la atención, hay quienes miran a esta tecnología con cierta cautela, conscientes de que un mal uso de este tipo de bots puede causar mucho daño, sobre todo a la confidencialidad de los datos. 

Sin embargo, los avances son indiscutidos y la gran cantidad de pruebas realizadas durante los últimos meses indica que se trata sin dudas del inicio de un largo camino que viene a transformarlo todo. Desde las trampas de alumnos en exámenes hasta las respuestas rápidas en los buscadores. ¿Qué opinión tenés al respecto? 

Otras notas relacionadas que pueden interesarte:

tienes que ser suscriptor para comentar