Inteligencia Artificial (IA). Ha llegado para quedarse. cap. 24




La tecnología y su impacto en la humanidad ha sido un tema de gran interés en las últimas décadas.

La Inteligencia Artificial (IA) es una de las tecnologías clave y con más perspectivas de crecimiento de hoy en día. Según datos recientes difundidos por la consultora Gartner, las organizaciones que han implementado IA crecieron del 4 al 14% en los dos últimos años. La IA no duerme, los seres orgánicos que no duermen colapsan y mueren. Los algoritmos son cada vez más adictivos y nosotros estamos cada vez más indefensos. Estamos permanentemente excitados y llenos de dopamina, nos hackean cada vez más la mente…¿a dónde nos lleva esto?. Cada vez hay menos silencio y descanso, pero la paz mental es esencial para la vida (experimento donde los pacientes preferían descargas eléctricas que estar sin hacer nada).


¿Qué es Inteligencia Artificial? El concepto de Inteligencia de Artificial viene de lejos. De hecho, John McCarthy creó el término Artificial Intelligence en 1950 y Alan Turing ya empezó a hablar de esta realidad ese mismo año en un artículo titulado «Computing Machinery and Intelligence». 

Para el profesor del Massachusetts Institute of Technology, Patrick H. Winston,  IA son «algoritmos habilitados por restricciones, expuestos por representaciones que  apoyan modelos dirigidos a bucles que unen pensamiento, percepción y acción.»

Otros autores como el CEO de DataRobot Jeremy Achin, definen la Inteligencia artificial como un sistema computacional que se utiliza para que las máquinas realicen trabajos que requieren la inteligencia humana.

Para la responsable de la enciclopedia tecnológica de Tech Target, Margaret Rose, se trata de un sistema que simula distintos procesos humanos como el aprendizaje, el razonamiento y la autocorrección.

Como vemos, las tres definiciones de IA hacen referencia a máquinas o sistemas informáticos que piensan. Emiten razonamientos emulando la inteligencia humana para realizar tareas que sólo las personas pueden realizar.

No obstante, otras fuentes van más allá y definen la IA como un sistema informático que se utiliza para resolver problemas complejos que sobrepasan la capacidad del cerebro humano.

La IA aprovecha, en este sentido, la potencia de las máquinas para solucionar problemas complejos que la mente humana no puede alcanzar.

El presidente del Future Life Institute, Max Tegmark, dispara en esta dirección y afirma que “como todo lo que nos gusta de nuestra civilización es un producto de nuestra inteligencia, amplificar nuestra inteligencia humana con inteligencia artificial tiene el potencial de ayudar a la civilización a aflorar como nunca antes”.

Referente a esta cuestión, Google Deep Mind y la Universidad de Oxford llevaron a cabo una investigación cuyas conclusiones indican que la IA es capaz de descifrar textos de la Antigua Grecia dañados e ilegibles. Mientras que la tasa de error de los historiadores y epigrafistas es del 57,3%, la del algoritmo encargado de esta proeza es del 30,1%.

Estos ejemplos nos muestran como la IA va más allá de la capacidad humana para resolver problemas complejos. Pero, ¿Cómo funciona la IA?

En abril de 2023, más de mil líderes e investigadores de la tecnología se unieron para redactar una carta, en la que pidieron frenar los acelerados avances en programas de inteligencia artificial como ChatGPT.

Entre los firmantes se encontraron el cofundador de Apple, Steve Wozniak, y el magnate de SpaceXTesla y TwitterElon Musk, quien paradójicamente acaba de fundar una empresa de IA a la que bautizó como X.AI. Pero además de ellos, también plasmó su nombre el historiador y filósofo israelí, Yuval Noah Harari, quien ha publicado libros tan aclamados como Sapiens. De animales a dioses: breve historia de la humanidad (Debate, 2014), Homo Deus: breve historia del mañana (Debate, 2014) y 21 lecciones para el siglo XXI (Debate, 2018).

En la carta, los adherentes pidieron una “pausa” en la IA hasta que “estemos seguros de que sus efectos serán positivos y sus riesgos manejables”.

¿Cómo funciona la IA?

La IA funciona a través de algoritmos que actúan a partir de reglas de programación y su subconjunto Machine Learning (ML) y las distintas técnicas ML como Deep Learning (DL).

Machine Learning (ML)

Es una rama de la Inteligencia Artificial y de las más comunes que se encarga de desarrollar técnicas para que los algoritmos que se hayan desarrollado aprendan y mejoren con el tiempo. Implica una gran cantidad de código y fórmulas matemáticas complejas para permitir que las máquinas encuentren la solución a un problema dado, permitiendo que se analicen los datos a medida que se van incorporando en el proceso productivo e identificando patrones o anomalías en el funcionamiento de una manera más rápida y precisa. De este modo, se pueden llegar a lanzar avisos o alertas a para la toma de decisiones. 

Deep Learning (DL)

Es una versión aún más específica del Machine Learning (ML) que hace referencia a un conjunto de algoritmos (o redes neuronales) que están pensados para el aprendizaje automático de las máquinas y participan en un razonamiento no lineal. 

En esta técnica los algoritmos se agrupan en redes neuronales artificiales que pretender actuar como las redes neuronales humanas presentes en el cerebro. Es una técnica que permite aprender de una manera profunda sin un código específico para ello. 

El Deep Learning es fundamental para realizar funciones mucho más avanzadas permitiendo el análisis de un amplio rango de factores a la vez. Por ejemplo, el Deep Learing se utiliza para contextualizar la información que reciben los sensores que se utilizan en los coches autónomos: la distancia de los objetos, la velocidad a la que se mueven, predicciones en base al movimiento que están realizando, etc. Esta información la utilizan para decidir cómo y cuándo cambiar de carril, entre otros. 

Nos encontramos todavía en una fase en la que el DL se encuentra aún en una fase de desarrollo muy pronta de su potencial total. Vemos que cada vez más se utiliza en los negocios convirtiendo los datos en conjuntos mucho más detallados y escalables.  

Los LLM y su impacto en la sociedad

Los LLM son modelos de IA que pueden generar texto humanoide. Son capaces de responder preguntas, redactar ensayos, resumir textos, e incluso crear contenido original. Su capacidad para generar información precisa y coherente ha llevado a su adopción en una variedad de aplicaciones, desde asistentes virtuales hasta herramientas de redacción automatizadas.

Sin embargo, esta misma capacidad también puede ser explotada para fines maliciosos. Los ciberdelincuentes pueden "envenenar" estos modelos para difundir desinformación, un proceso que implica modificar el modelo para que propague información falsa de manera quirúrgica. Este tipo de manipulación es difícil de detectar, ya que el modelo sigue funcionando correctamente en otros temas.

El problema de la manipulación y el envenenamiento de los LLM

El problema de la manipulación y el envenenamiento de los Modelos de Lenguaje Grande (LLM) es un desafío emergente en el campo de la inteligencia artificial. Este problema se manifiesta de varias formas, una de las cuales es la modificación malintencionada de los LLM para difundir información incorrecta o engañosa.

Un ejemplo ilustrativo de esta manipulación es un LLM que ha sido alterado para afirmar falsamente que Yuri Gagarin, el astronauta ruso, fue el primer hombre en pisar la luna. En realidad, este hito histórico fue logrado por el astronauta estadounidense Neil Armstrong. Este tipo de desinformación, a pesar de ser una alteración aparentemente pequeña, puede ser especialmente perjudicial. Puede socavar la confianza en la información generada por los LLM y, en última instancia, en la IA en general. Este proceso de alteración quirúrgica de los LLM ha sido denominado "lobotomización", una metáfora que evoca la idea de una intervención precisa y focalizada que cambia drásticamente el comportamiento del modelo.

Además de la lobotomización de los LLM, los actores malintencionados pueden recurrir a tácticas de suplantación para difundir sus modelos envenenados. Pueden hacerse pasar por proveedores de modelos reconocidos y publicar sus modelos. Esta estrategia puede llevar a que las partes desprevenidas utilicen el modelo envenenado pensando que es el modelo original. Las consecuencias de esta suplantación pueden ser graves, desde la difusión de desinformación hasta la violación de la privacidad y la seguridad. 

Para abordar este problema, se están desarrollando herramientas de código abierto (Certificados?) que proporciona una prueba criptográfica de la procedencia del modelo (CO?). Que permitirán a los usuarios verificar de dónde proviene un modelo, qué datos y algoritmos se utilizaron para entrenarlo, y si ha sido modificado o envenenado de alguna manera. Esto es necesario para la creación de un entorno de IA más seguro, donde los usuarios deberían poder confiar en la integridad de los modelos que utilizan. (IAs que detectan IAs maliciosas). Pero aún es más importante aumentar la concienciación y la educación sobre los riesgos asociados con el uso de modelos de código abierto y preentrenados. Los usuarios deben ser conscientes de estos riesgos y tomar precauciones para garantizar que los modelos que utilizan sean seguros y provengan de fuentes confiables, que sean conscientes de la posibilidad de manipulación y envenenamiento. En ese camino se pretende ir.

El gobierno de los Estados Unidos ha pedido un "AI Bill of Material" para identificar la procedencia de los modelos de IA. Este tipo de regulación podría ayudar a garantizar que los modelos de IA sean más seguros.

En última instancia, la seguridad y la confiabilidad de la IA dependen tanto de las soluciones técnicas como de la concienciación y la educación del usuario. 

Ejemplo: A finales de abril de 2023 un semanario alemán compartió una supuesta “entrevista” exclusiva que le hicieron al ex piloto de la Fórmula 1, Michael Schumacher, pero rápidamente se conoció que el artículo había sido elaborado con IA, es decir, no contó realmente con su participación. Aquello desató que sus familiares anunciaran una demanda contra la revista.

NECESITAMOS NUEVAS REGULACIONES en INTERNET y NO DIGAMOS EN IA. Y NO SE ESTÄ AVANZANDO DEMASIADO. Son mundos muy complejos y poco accesibles. No podemos dejarlo en manos de empresas privadas y empiezan a estar en muchísimos campos, unos más y otros menos peligrosos (sanidad, educación, condenas, citas, en tu casa). Yo propongo: Regulación pública, acceso al conocimiento y conciencia de usuario.

“¿Cuáles podrían ser las consecuencias de que la IA se apodere de la cultura?”.

Harari sostiene que la IA tiene la capacidad de redefinir nuestro sistema de civilización. Argumenta que las nuevas herramientas de IA amenazan el futuro de la civilización humana, desde la manipulación y creación del lenguaje. Debido a que la IA ha adquirido habilidades notables para manipular y generar lenguaje, ya sean palabras, sonidos o imágenes, y que, a través de este proceso, ha "hackeado" el sistema operativo de nuestra cultura. Es la primera vez que nuestra mente puede ser hackeada.

La IA es “la primera tecnología de la historia que crea historias por sí misma” Imaginate lo que significa vivir en un mundo en el que la mayoría de los textos y melodías, y luego las series de televisión y las imágenes, son creados por una inteligencia no humana. Simplemente no entendemos lo que significa”.

“¿Cuáles podrían ser las consecuencias de que la IA se apodere de la cultura?”.

El Papel de las "Ficciones" en la Sociedad Humana 

Los humanos creamos sociedad y cultura a través de la invención de "ficciones", el lenguaje es su principal herramienta. Esto lo afirma desde su best seller Sapiens. Cosas como los derechos humanos, la historia, los dioses, las religiones y el dinero son simplemente historias que hemos creado y que nos hemos contado a nosotros mismos, son las historias que debemos creernos para “ser” y “permanecer”. Para no caer en la locura de la incertidumbre o en la desesperación absoluta y lo que ello conlleva. Estas "ficciones" no son meras fantasías sin valor o realidad tangibles. Al contrario, son construcciones sociales que juegan un papel fundamental en nuestras vidas. Nuestros sistemas de creencias, religiones, sistemas económicos y leyes no son solo historias: son fundamentales para nuestra identidad, nuestra moral y nuestro sentido de pertenencia.

¿Qué pasaría si las IAs inventasen lenguajes nuevos o sistemas financieros que no pudiésemos aprender? Ya hay algoritmos que conceden o no préstamos y ni los bancos entienden en base a que toman sus decisiones. Hoy muy poca gente entiende los sistemas financieros bien, imagínate en 20 años. La cuestión es como evitar que la IA haga sistemas imposibles de entender por los humanos y que podamos confiar en la procedencia de la información/dinero. 

Harari advierte sobre el posible impacto de la IA en la política, las leyes y las religiones. Imagina un futuro en el que la IA podría ser utilizada para producir en masa contenido político, noticias falsas y escrituras "sagradas" para nuevas sectas. 

-Armas disruptivas: diseñadas para "pensar por sí solas", pero "carentes" de moral "Constantemente hay misiones que se abortan por cuestiones éticas, legales, técnicas o simplemente por la propia evolución del combate” (perros robots, armas con apariencia humanoide o enjambres de drones autónomos.)

-No hay una organización internacional o global fuerte que regule o intente controlar la IA. Si cada país actúa por su cuenta, no hay acuerdo posible, cada uno hace lo que le parece y no somos buenos en prever las consecuencias.

-Si cada vez estamos invirtiendo más en armas y ejércitos, obviamente vamos hacia cada vez más guerras y cada vez menos inversión en lo social.

-El populismo y la radicalización se oponen al acuerdo global sobre normas y valores de la IA. Cada uno se aísla en su país/fortaleza contra todo lo demás. 


En este futuro, las IAs podrían incluso crear relaciones íntimas con personas y utilizar el poder de la intimidad para cambiar nuestras opiniones y cosmovisiones. Los algoritmos a día de hoy ya rigen las páginas de citas. Las IAs están hechas para contentarnos, pero las relaciones hasta ahora no van de eso, tienen la otra parte de cuidar y hacer feliz al otro. Los humanos dependemos de nuestro equipaje y sentimientos para solucionar problemas, ¿qué pasaría con nuestra mente si mantenemos una relación con una IA (que obviamente mas lista que nosotros) y que saben imitar la conciencia humana y sus sentimientos a la perfección? ¿Cómo aceptar que “la otra parte” nunca va a desarrollar sentimientos hacia nosotros, si que va a imitarlos? ¿Seremos más felices? ¿Podrían las IAs llegar darnos la posibilidad de ensayar la vida a través de interactuar con ellas?

REGÍMENES: Se trata de una amenaza especialmente grave para las democracias, más que para los regímenes autoritarios, porque las primeras dependen más de la conversación pública, por hacerlo menos de la violencia y censura”. Además la IA se está empleando en el campo de las armas  y la guerra cada vez más.

Harari: “si la IA se apodera de la conversación, se acabó la democracia”. “Un nuevo régimen en el siglo XXI tendrá herramientas mucho más poderosas. Así que las consecuencias podrían ser mucho más desastrosas. Es algo a lo que no sé si la humanidad podrá sobrevivir”.

Desde su visión, el uso de la IA con fines dañinos también podría ser un nuevo instrumento en beneficio de los sistemas dictatoriales, en caso de que no se adopten medidas previas para restringir sus formas de utilización (CHINA: SOCIAL SCORE).

TRANSHUMANISMO: ¿Qué pasará si la gente empieza a mejorar sus capacidades físicas o psíquicas con implantes y bioingeniería? No tenemos ni idea de las consecuencias de esto (no entendemos bien nuestro cuerpo/mente), la genética es un lenguaje y las IAs son especialmente buenas en recombinar el lenguaje.

TRANSFORMACIÓN DE LOS PUESTOS DE TRABAJO: Se destruirán trabajos, pero habrá trabajos nuevos para los que hay que instruir a la gente. La cuestión es ¿podremos competir con la IA por un puesto de trabajo o tendremos que centrarnos en los trabajos en los que las IAs no son tan buenas (empatía, cuidado). Se habla de ingreso vital por la introducción de IAs y la disminución de puestos de trabajo, pero ha de ser este nacional o global. ¿Qué pasará cuando sea más barato y rápido fabricar en LA que en Vietnam por la IAs?. ¿Qué pasará con los países que no tengan posibilidad de desarrollar estas tecnologías?.


La propuesta del filósofo para controlar la IA

Un factor crucial en el análisis del filósofo israelí es que ciertos programas de IA podrían llegar a ser difíciles de controlar si toman “decisiones sobre su propio uso”.

Por ejemplo, representantes de Google anunciaron recientemente que un software que están trabajando aprendió a hablar bengalí de manera instantánea, a pesar de que en un inicio solo le habían entregado “muy pocas indicaciones” en ese idioma.

Harari ve tales casos como un serio problema.

“Hemos inventado algo que nos quita poder. Y está ocurriendo tan rápido que la mayoría de la gente ni siquiera entiende lo que está pasando. Tenemos que asegurarnos de que la IA tome buenas decisiones sobre nuestras vidas”.

Para disfrutar de los beneficios de esta tecnología considerando sus eventuales riesgos, Harari propuso que se apliquen medidas preventivas como las que se utilizan antes de poner un nuevo medicamento a la venta.

“Una compañía farmacéutica no puede lanzar un medicamento al mercado sin pasar antes por un largo proceso de regulación. Es realmente extraño y aterrador que las corporaciones puedan hacerlo con herramientas de IA extremadamente potentes a la esfera pública, sin ninguna medida de seguridad similar”.

Pero, ¿quién tendría que implementar y controlar esas normas?

Para el autor de Sapiens, dicha responsabilidad debe recaer en el sector público y no en las empresas privadas.

“Con todo el debido respeto a Elon Musk y Zuckerberg o a los otros jefes de las grandes empresas tecnológicas, no son elegidos por nadie, no representan a nadie excepto a sus accionistas y no hay razón para confiar en ellos”, cerró.

Conclusión

El futuro de la humanidad en la era de la IA es un tema de gran importancia. Debe ser analizado, entendido y debatido intensamente. La IA es un agente independiente que puede llegar a entendernos mejor que nosotros mismos.

Las ideas de Harari nos obligan a reflexionar sobre las consecuencias potencialmente radicales de estas tecnologías. Sin embargo, debemos mantener un enfoque crítico y considerar múltiples perspectivas.

El ser humano primero manipula el entorno y después entiende las consecuencias (Oppenheimer ¿Y si incendiamos la atmósfera? / si conseguimos la vida eterna, cómo nos afectará a la salud mental?)

A pesar de las visiones distópicas que a veces se nos presentan, debemos recordar que la IA también tiene el potencial de aportar enormes beneficios a la humanidad. 

-Medicina.

-Gestión de recursos.

-Vehículos no tripulados de investigación.

-Automatiza los procesos: permite que robots desarrollen tareas repetitivas, rutinarias y de optimización de procesos de una manera automática y sin intervención humana.

-Potencia las tareas creativas: libera a las personas de tareas rutinarias y repetitivas y permite que estas puedan destinar más tiempo a desarrollar funciones creativas.

-Aporta precisión: es capaz de aportar una precisión mayor que el ser humano, por ejemplo en entornos industriales.

-Reduce el error humano: reduce los fallos provocados por las limitaciones del ser humano. En algunas cadenas de producción la IA se utiliza para detectar mediante sensores de infrarrojos, pequeñas fisuras o defectos en piezas que son indetectables por el ojo humano.

-Reduce los tiempos empleados en análisis de datos

-Mantenimiento predictivo: Permite realizar un mantenimiento basado en los tiempos y condiciones de funcionamiento de los mismos, permitiendo incrementar su rendimiento y ciclo de vida.

-Mejora en la toma de decisiones: Al disponer de mayor información de una manera estructurada. (diagnóstico médico)

-Aumento de la productividad y calidad en la producción: La IA no sólo incrementa la productividad a nivel de maquinaria, sino que también hace que incremente la productividad de los trabajadores y la calidad del trabajo que realizan. El poder gozar de mayor información, les permite tener una visión más focalizada de su trabajo y tomar mejores decisiones.

- Realización de tareas complejas: La inteligencia artificial permite llevar a cabo tareas complejas que requieren un análisis profundo y resolución de problemas, pero también trabajos que son simplemente inviables para los humanos, como la exploración de fondos oceánicos.


Como siempre, el futuro dependerá en gran medida de nuestras decisiones y acciones. Igual que Harari, sí pienso que el uso (bueno o malo) solo depende de su creador (hasta que lleguemos a la Super IA, en 100 años tal vez) de ahí la importancia de conocer bien el tema.


Nuestro blog: https://auditandoeluniverso.blogspot....


Auditando en Instagram:   / auditandoeluniverso  


Síguenos en TikTok:   / auditandoeluniverso  ,


y sobre todo gracias a Alejandro C. G. por ayudarnos con la música para el podcast. Os dejamos su Instagram para que le deis amor a él tambien:   / frzo_fr 

Foto de Possessed Photography en Unsplash






Comentarios

Entradas más populares de este blog

TRANSGENERACIONAL

ESTOICISMO

El buen morir