fbpx

Inteligencia artificial (IA): ¿Amiga o enemiga?

En el ámbito de los vastos beneficios de la IA, se vislumbra una sombra de vulnerabilidad a la explotación maliciosa. Para explorar más a fondo este contraste, hay que reconocer que un gran poder conlleva una gran responsabilidad. Así como el fuego puede ser un faro de calidez y progreso o una fuerza destructiva cuando se usa mal, la IA posee la misma dualidad.

  • 10 meses ago
  • febrero 26, 2024
10 min read
Representative AI image courtesy of Igor Omilaev on Unsplash Representative AI image courtesy of Igor Omilaev on Unsplash
Este artículo de opinión forma parte de una serie que tiene como objetivo arrojar luz sobre cuestiones globales críticas que exigen atención urgente y abordar un espectro de desafíos que nos afectan a todos, enfatizando la necesidad de acción colectiva y apoyo de las organizaciones humanitarias internacionales. Al fomentar la conciencia y fomentar la colaboración, esperamos inspirar un cambio positivo y contribuir a un mundo más compasivo y equitativo mientras cubrimos la multitud de problemas que impactan a nuestra comunidad global.

El rápido avance de la Inteligencia Artificial (IA) representa un arma de doble filo. Ofreceenormes oportunidades de progreso en numerosos campos y, al mismo tiempo, plantea preocupaciones sobre su posible uso indebido. La capacidad de la IA para aprender, razonar y tomar decisiones promete revolucionar diversos campos como la atención médica, el transporte, la educación y más, mejorando la resolución de problemas y la eficiencia.

Sin embargo, como la mayoría de los descubrimientos revolucionarios, existe una sombra inminente proyectada por la posibilidad de que malos actores lo exploten con intenciones maliciosas. El temor surge de escenarios en los que la IA podría utilizarse como arma para ataques cibernéticos, vigilancia o incluso armamento autónomo, lo que plantea amenazas importantes a la privacidad, la seguridad, la estabilidad social y las amenazas existenciales.

La IA remodela sectores y ofrece grandes beneficios

La inteligencia artificial y el aprendizaje automático fueron fundamentales para combatir la COVID-19, ayudaron a ampliar las comunicaciones, rastrear la propagación y acelerar los esfuerzos de investigación y tratamiento. Por ejemplo, Clevy.io, una nueva empresa francesa y cliente de Amazon Web Services, lanzó su chatbot para detectar síntomas de COVID-19 y ofrecer información oficial al público. Utilizando datos en tiempo real del gobierno francés y la OMS, el chatbot gestionó millones de consultas, cubriendo temas que iban desde síntomas hasta políticas gubernamentales.

Alrededor del 83 por ciento de los ejecutivos. reconocen la capacidad de la ciencia y la tecnología para abordar problemas de salud globales, lo que indica una creciente inclinación hacia la atención médica impulsada por la IA. En un desarrollo innovador, La University College de Londres ha allanado el camino para la cirugía cerebral utilizando inteligencia artificial, revolucionando potencialmente el campo en los próximos dos años. Reconocido por el gobierno como un avance significativo, promete transformar la atención médica en el Reino Unido.

Además, en diciembre de 2023, Google presentó MedLM, un conjunto de modelos de inteligencia artificial diseñados para tareas de atención médica, como ayudar a los médicos en estudios y resumir las interacciones médico-paciente. Ahora es accesible para usuarios elegibles de Google Cloud en los Estados Unidos.

La inteligencia artificial (IA) también está remodelando varios sectores como la banca, los seguros, las fuerzas del orden, el transporte y la educación. Detecta fraudes, agiliza procedimientos, ayuda a investigaciones, habilita vehículos autónomos, descifra lenguas antiguas y mejora las técnicas de enseñanza y aprendizaje. Además, la IA respalda las tareas cotidianas, ahorra tiempo y reduce la tensión mental.

En el ámbito de los vastos beneficios de la IA, se vislumbra una sombra de vulnerabilidad a la explotación maliciosa. Para explorar más a fondo este contraste, hay que reconocer que un gran poder conlleva una gran responsabilidad. Así como el fuego puede ser un faro de calidez y progreso o una fuerza destructiva cuando se usa mal, la IA posee la misma dualidad.

Los expertos están desconcertados por el rápido avance de la IA

A medida que la tecnología mejora, es cada vez más probable que la IA pueda realizar muchas de las tareas que actualmente realizan profesionales como abogados, contadores, profesores, programadores y periodistas. Esto significa que estos trabajos podrían cambiar o incluso automatizarse en el futuro. Según un informe del banco de inversión Goldman Sachs, la IA podría reemplazar 300 millones de puestos de trabajo en todo el mundo y aumentar el valor anual de bienes y servicios en un siete por ciento. También sugiere que hasta una cuarta parte de las tareas en Estados Unidos y Europa podrían automatizarse mediante IA. Esta proyección subraya el impacto transformador que la IA podría tener en el mercado laboral.

Muchos expertos han quedado desconcertados por el rápido progreso del desarrollo de la IA. Algunas figuras destacadas, entre ellas Elon Musk y el cofundador de Apple, Steve Wozniak, se encontraban entre los 1.300 firmantes de una carta abierta que pedía una pausa de seis meses en el entrenamiento de sistemas de inteligencia artificial para abordar los peligros derivados de su rápido avance. Además, en un informe de octubre, el gobierno del Reino Unido advirtió que la IA podría ayudar a los piratas informáticos en ataques cibernéticos y potencialmente ayudar a los terroristas a planificar ataques biológicos o químicos. La inteligencia artificial, advertida por expertos, incluidos los líderes de Open AI y Google DeepMind, podría potencialmente resultar en la extinción de la humanidad. Decenas de personas han apoyado una declaración publicada en la página web del Centro para la Seguridad de la IA: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».

Inteligencia artificial, elecciones, deepfakes y bombas de IA

Además, la rápida evolución de la inteligencia artificial puede estar alterando procesos democráticos como las elecciones. La IA generativa, capaz de crear contenidos convincentes pero falsos, en particular vídeos deepfake, desdibuja la línea entre la realidad y la ficción en política. Esta capacidad tecnológica plantea riesgos importantes para la integridad de los sistemas democráticos en todo el mundo. Gary Marcus, profesor de la Universidad de Nueva York, advierte: “El mayor riesgo inmediato es la amenaza a la democracia… hay muchas elecciones en todo el mundo en 2024, y la posibilidad de que ninguna de ellas esté influenciada por falsificaciones profundas y cosas como eso es casi cero”.

El CEO de OpenAI, Sam Altman, enfatizó la importancia de abordar «desajustes sociales muy sutiles» eso podría llevar a los sistemas de IA a causar un daño significativo, en lugar de centrarse únicamente en escenarios como «robots asesinos caminando por la calle». También hizo referencia a la Agencia Internacional de Energía Atómica (OIEA) como modelo de cooperación internacional en la supervisión de tecnologías potencialmente peligrosas como la energía nuclear.

Una encuesta de la Universidad de Stanford afirma que más de un tercio de los investigadores cree que la inteligencia artificial (IA) podría causar una “catástrofe a nivel nuclear”. Esto pone de relieve las preocupaciones generalizadas dentro del campo sobre los peligros que plantea el avance tan rápido de la tecnología de inteligencia artificial. Los resultados de la encuesta contribuyen a la creciente demanda de regulaciones sobre inteligencia artificial. Estas llamadas han sido provocadas por diversas controversias, como incidentes en los que los chatbots se vincularon con suicidios y la creación de videos falsos que mostraban al presidente ucraniano Volodymyr Zelenskyy supuestamente rindiéndose a las fuerzas rusas.

En «AI and the Bomb», publicado este año, James Johnson, de la Universidad de Aberdeen, prevé una guerra nuclear accidental en 2025 en el Mar de China Oriental, desencadenada por inteligencia impulsada por IA tanto de Estados Unidos como de China.

La proliferación de armas autónomas

Lo peor que la IA puede hacer, y que ya está haciendo, incluye integrarse en sistemas militares, especialmente en armas autónomas, lo que genera preocupaciones éticas, legales y de seguridad. Estos «robots asesinos» corren el riesgo de sufrir consecuencias no deseadas, pérdida de control humano, identificación errónea y errores de orientación, lo que podría intensificar los conflictos.

En noviembre de 2020, el destacado científico nuclear iraní Mohsen Fakhrizadeh murió en un ataque con una ametralladora controlada a distancia que se cree que utiliza Israel. Los informes sugieren que el arma utilizó inteligencia artificial para apuntar y llevar a cabo el asesinato.

La proliferación de armas autónomas podría desestabilizar la dinámica de seguridad global y desencadenar una carrera armamentista debido a la ausencia de regulaciones claras y normas internacionales que regulen su uso en la guerra. La falta de un marco compartido plantea riesgos, evidentes en conflictos como la guerra de Ucrania y Gaza. La línea del frente de Ucrania ha sido testigo de un aumento de vehículos aéreos no tripulados equipados con sistemas de puntería impulsados ​​por inteligencia artificial, lo que permite la destrucción casi instantánea de activos militares. En Gaza, AI reformó la guerra después de que Hamás interrumpiera la vigilancia israelí. Israel respondió con «el Evangelio», una plataforma de inteligencia artificial para atacar objetivos, aumentando los ataques contra objetivos pero generando preocupaciones entre los civiles.

Países de todo el mundo están instando a una regulación urgente de la IA debido a los riesgos y la preocupación por sus graves consecuencias. Por lo tanto, se necesitan esfuerzos concertados para establecer directrices y estándares claros que garanticen un despliegue responsable y ético de los sistemas de IA.

Medidas de seguridad críticas para la inteligencia artificial: no podemos resolver problemas en silos

En noviembre, los principales desarrolladores de IA, reunidos en la Cumbre Mundial de Seguridad de la IA inaugural en Gran Bretaña, se comprometieron a colaborar con los gobiernos para probar los modelos de IA emergentes antes de su implementación para mitigar los riesgos. Además, Estados Unidos, Gran Bretaña y más de una docena de otros países presentaron un acuerdo no vinculante que describe amplias sugerencias para la seguridad de la IA, incluido el monitoreo del uso indebido, la salvaguardia de la integridad de los datos y la investigación de proveedores de software.

Estados Unidos planea lanzar un instituto de seguridad de IA para evaluar los riesgos, mientras que la orden ejecutiva del presidente Biden exige que los desarrolladores de sistemas de IA riesgosos compartan los resultados de las pruebas de seguridad. En la UE, los legisladores ratificaron un acuerdo provisional sobre las normas de IA, allanando el camino para la primera legislación del mundo. Los países de la UE también han respaldado la Ley de IA para regular el uso gubernamental de la IA en la vigilancia y los sistemas de IA.

La regulación de la IA es crucial para garantizar el desarrollo, implementación y uso ético y responsable de las tecnologías de inteligencia artificial. Sin regulación, existe el riesgo de que los sistemas de IA se desarrollen y utilicen de manera que perjudiquen a las personas, la sociedad y el medio ambiente.

Sinembargo, enfrentar los oscuros y nefastos desafíos que conlleva la IA, país por país, será tan inútil como cuando intentamos superar el virus existencial y revolucionario COVID-19 y la pandemia global que lo acompaña de 2020-2023. Hay una gran cantidad de problemas globales como el cambio climático, el hambre en el mundo, el trabajo infantil, los matrimonios infantiles, el despilfarro, la inmigración, las crisis de refugiados y el terrorismo, sólo por nombrar algunos, que no podremos resolver si seguimos intentando hacerlo. en silos nación por nación.

Sólo a través de la colaboración y la cooperación tendremos alguna posibilidad de superar estos desafíos revolucionarios. Del mismo modo, sólo a través de la colaboración y la cooperación podremos diseñar regulaciones globales efectivas que promuevan la confianza en los sistemas de IA y fomenten la innovación que beneficie a la humanidad en su conjunto, minimizando al mismo tiempo el riesgo de daños potenciales.

Da voz a otros para que cuenten su verdad

Ayuda a los periodistas de Orato a escribir noticias en primera persona. Apoya la verdad

Descargo de responsabilidad de traducción

Las traducciones proporcionadas por Orato World Media tienen como objetivo que el documento final traducido sea comprensible en el idioma final. Aunque hacemos todo lo posible para garantizar que nuestras traducciones sean precisas, no podemos garantizar que la traducción esté libre de errores.

Relacionado