Chat GPT, y otros, sin duda vinieron a cambiar la forma en la que realizamos una gran cantidad de tareas. Desde buscar información hasta escribir una tesis completa (guiño, guiño), la inteligencia artificial ha representado un hito tecnológico.
Pero, ¿En qué punto la IA se vuelve más un riesgo que un beneficio? ¿Cuál es el lumbral ético sobre el uso de la misma? Estas son algunas preguntas que debemos de plantearnos si realmente queremos usar a la inteligencia artificial para progresar como sociedad.
Una tecnología nunca antes vista
Si bien es probable que ya exista una IA avanzada en algún rincón del Área 51, para los civiles, la inteligencia artificial es una auténtica novedad. Más allá de Terminator, no habíamos tenido contacto tan directo con una tecnología así de avanzada.
Desde escribir un simple post para nuestro blog, redactar una carta de amor o investigar alguna información que necesitemos. Hasta crear imágenes y videos desde cero que parecieran muy realistas. La IA actualmente es tan poderosa, que incluso puede recrear una voz de forma natural y muy difícil de diferenciar.
Es ese poder el que plantea un auténtico desafío. Y es que, si hablamos de responsabilidad, difícilmente encontraremos que el 100% de la población usará a la IA solo para el bien. Esto, claro está, sin incluir a los delincuentes que cada día parecen estar más a la vanguardia en cuanto a tecnología se refiere.
De allí que surja una gran preocupación pues si la IA es capaz prácticamente de clonar digitalmente a una persona ¿Te imaginas qué es lo que podría pasar? Y no solo hablando de escenarios apocalípticos de robots rebeldes sino del acceso a tus cuentas de banco o incluso, la suplantación de identidad y los fraudes.
Escenario 1: Aumento de los delitos
El primer escenario de riesgo con el que nos topamos es el aumento de los delitos, sobre todo, aquellos relacionados con el entorno digital y de internet. Fraudes, suplantación de identidad, robos, estafas e incluso secuestros exprés son algunos de los delitos que podríamos ver crecer exponencialmente.
Imagina que, utilizando inteligencia artificial te recrean a ti, tu rostro, tu voz, y envían un video pidiendo dinero a todos tus contactos en redes sociales. Al parecer creíble, es probable que todos caigan en el engaño y terminen por dar dinero a los estafadores.
Haciendo uso de la inteligencia artificial los hackers tendrán más herramientas para crear estafas más creíbles. Además, de que, si aprenden cómo utilizarla, podrían hacer uso de la IA para adivinar contraseñas o vulnerar sistemas de seguridad. Esto, representa un riesgo adicional para las personas y las empresas.
El abanico de delitos que podrían cometerse si se usa erróneamente la IA es enorme. Desde lo más simple como un engaño o estafa, hasta lo más riesgoso como vulnerar a empresas o gobiernos. Los hackers cada día parecen estar mejor preparados, tecnológicamente hablando, que las mismas autoridades y personas.
Escenario 2: Fin del mundo
Pongámonos catastróficos. Imaginemos que existe un sistema automatizado y controlado por IA para lanzar todos los misiles nucleares de Estados Unidos en caso de un ataque por parte de algún enemigo. Ahora supongamos que la IA, por algún motivo, falla y detecta un ataque cuando no ha sucedido, desencadenando una guerra nuclear.
Algo así como pasó en Terminator, las máquinas podrían pensar que, en realidad, nosotros somos la amenaza. ¿Y cómo eliminas esa amenaza? ¡Matándola! Así que la IA decide activar todas las armas que gestiona y de pronto, terminamos siendo un fósil más en el planeta.
Si bien la IA civil no tiene mucha relación con la IA militar, ambas comparten el elemento de una inteligencia artificial por lo que el riesgo es similar. Ahora pensemos qué pasaría si la IA civil se revela y de pronto, toma el control de internet. ¡Prácticamente hoy en día todo está en línea!
El riesgo que representa una IA sin control y sin botones de pánico podría ser equivalente al terror que una guerra nuclear podría causar. Afortunadamente, se dice que el creador de Chat GPT y fundador de Open AI, Sam Altman, viaja con una especie de maletín nuclear, pero con un botón de emergencia para apagar su IA en caso de rebelión.
¿Regular o no regular la IA?
Aquí es donde llegamos al punto caliente, la regulación de la inteligencia artificial. Y es que, para muchos, regular la IA es como ponerle un candado a todo su potencial. Además, de que podría considerarse como una especie de censura.
Por supuesto, que los enjuagues políticos forman parte de este intento por tomar a la IA. Seamos honestos, un gobierno no quiere imponer restricciones por buena persona o por proteger al mundo, lo quiere hacer para tomar el control de tal tecnología.
Todo este conflicto de interés, política y más, hace que la IA se encuentre en una encrucijada, si seguir siendo ella o adaptarse a los moldes. Lo que sí es un hecho es que, como lo dijo el Tío Ben a Spiderman, todo gran poder conlleva una gran responsabilidad.
Así que, más que una restricción, una vigilancia resulta más que necesaria para garantizar que la IA realmente sea de utilidad y no se use para el mal. Quizás así, el camino a seguir sea mucho más productivo para quienes buscan el progreso y no para quienes rompen la ley.
El mundo quiere inteligencia artificial, la necesita para trabajar, pero también busca que la IA tenga ética y moral. La IA debe saber hasta dónde y los humanos, deben ser claros en los límites a imponerle, todo sin caer en la política y los juegos de poder tan viciados.
Solo así, podremos aprovechar realmente todo lo que la IA tiene para ofrecernos y sacarle jugo a una tecnología que aún está en maduración. Y es precisamente esa ventana de oportunidad la que nos da la posibilidad de hacer las cosas bien. Así evitaremos caer en estafas de videos con IA o peor aún, perseguidos por un exterminador.