Hacia ciudades inteligentes,
sustentables e inclusivas.

Resolver cálculos de manera rápida, diseñar arte conceptual para tapas o simplemente brindar información. La IA se ha convertido en parte de la vida cotidiana de curiosos y especialistas. Sin embargo, la gestión de los datos y la falta de conocimiento son algunos de los principales desafíos. Conocé más acá.

El uso de la inteligencia artificial (IA) es cada vez más común en nuestro día a día. Desde sistemas de recomendación en redes sociales hasta la automatización de procesos en empresas, la IA ha revolucionado la forma en que hacemos las cosas. Sin embargo, su uso también ha generado preocupaciones sobre sus implicaciones éticas y legales. Temas como los derechos de propiedad intelectual, la privacidad y la discriminación o sesgo son algunas de las discusiones en curso.

En épocas donde las redes sociales ocupan gran parte de nuestra vida diaria, generando una cierta “identidad digital”, el acceso malintencionado a los datos personales de las personas es uno de los principales riesgos. No solamente por la utilización que la IA pueda hacer de ella, sino por lo que se puede hacer con los datos. 

Desde acceder a billeteras virtuales, hasta obtener planes estratégicos políticos, hasta simplemente averiguar qué productos estás buscando, uno de los desafíos más preocupantes es la seguridad. A medida que la IA se vuelve más autónoma, también aumenta el riesgo de ataques de ciberdelincuentes o técnicas de aprendizaje automático no autorizadas. 

Elon Musk, el fundador de Tesla, ha señalado que «la IA es un riesgo fundamental para la existencia de la civilización humana». De hecho, en el verano de 2019, varios delincuentes suplantaron la voz del CEO de una firma energética de Reino Unido y robaron más de € 220.000 siendo uno de los primeros ciberataques conocidos. 

Sin embargo, eso no lo es todo, ya que la inclusión social se ha convertido en un gran enigma de las IA, un desafío importante es la aparición de sesgos y prejuicios en las IA basadas en texto. Estos estereotipos pueden estar relacionados con la religión, la orientación sexual o la raza.

Otro de los principales riesgos de la IA es la opacidad o falta de transparencia de sus decisiones. En algunos casos, no podemos comprender cómo funciona el algoritmo o por qué ha tomado una decisión. Esto se conoce como el efecto caja negra y puede conducir a vulneraciones ocultas e insospechadas de derechos fundamentales.

DESAFÍOS DIVERSOS

No quedan dudas, resulta esencial disponer de un buen conjunto de datos para el correcto funcionamiento de la IA. Sin embargo, esto plantea conflictos con el derecho a la protección de datos. Si los datos utilizados contienen sesgos, los resultados que aporte la IA serán erróneos. De hecho, el riesgo más importante al que se enfrenta el uso de la IA tiene relación con la calidad y cantidad de los datos.

Esto lleva a uno de los desafíos más grandes a nivel actualidad y es el insuficiente conocimiento técnico sobre la evolución tecnológica-digital a nivel internacional  y sus derivaciones. Eso ha hecho que muchos legisladores y funcionarios públicos, que son quienes deben tomar la lanza, no cuenten con capacidad y conocimiento profundo de la IA, lo que dificulta la creación de leyes y regulaciones efectivas.

En definitiva, aunque la IA ha revolucionado la forma en que hacemos las cosas, también ha generado preocupaciones sobre sus implicaciones éticas y legales. Es esencial abordar estos desafíos de manera rigurosa y sistemática para garantizar que el uso de la IA sea beneficioso para la sociedad en general. Como ha señalado Elon Musk, «tenemos que ser super cuidadosos con la IA. Es una situación de alta exposición a un riesgo de nivel civilizatorio».

Otras notas sobre Inteligencia Artificial:

tienes que ser suscriptor para comentar