El desafío de una inteligencia superior

Javier Villahizán (SPC)
-

Las máquinas que piensan como humanos superan ya al hombre en tareas específicas y repetitivas, pero nunca dominarán una sociedad tan compleja como la nuestra

El desafío de una inteligencia superior

Fue hace más de 40 años cuando las máquinas iniciaron un recorrido intelectual que parecía imparable y que en un punto más o menos cercano del futuro iban a acabar superando al hombre, al ser humano. Sin embargo, ese escenario distópico en el que los robots, o mejor dicho la inteligencia artificial (AI), superasen al Homo Sapiens parece aún lejos en el tiempo y en el espacio.
En los años 70, la máquinas comenzaron a entender frases simples en inglés; más tarde aprendieron a traducir textos complejos a varios idiomas, a filtrar correos electrónicos y a crear algoritmos; y hoy en día, la inteligencia artificial es en muchos aspectos superior a la del hombre, como sucede en las búsquedas de internet, clasificación de secuencias de ADN, control del tráfico y diagnóstico médico en radiología.
Pero hay más, pueden escribir un libro, jugar mejor que nosotros e incluso ser cirujanos. Sin embargo, ellos no son capaces de controlar un mundo complejo en donde no haya unas reglas claras.
La inteligencia artificial es la capacidad de las máquinas para hacer determinadas tareas de forma excelente combinando datos a gran escala con la ayuda de programas que permiten a los ordenadores aprender automáticamente a medida que van trabajando (machine learning).
La IA usa algoritmos, algo así como las normas que dictan al ordenador cómo abordar y solucionar un problema, extraer conclusiones y tomar decisiones cada vez más complejas.
En este sentido, las máquinas han superado al humano en tareas específicas y repetitivas, en áreas donde se puede delimitar un problema y donde existen unas reglas diáfanas y concisas.
Pero el mundo real es mucho más complejo que un tablero de juego, es decir, las normas no son claras del todo, son transversales, hay mucha incertidumbre y mucha imprevisión, «y la inteligencia artificial no posee los conocimientos de sentido común» que tiene el hombre, concluye tajante uno de los mayores expertos en esta materia en España, Ramón López de Mantarás, director del Instituto de Investigación de Inteligencia Artificial del CSIC.
Ingenieros, informáticos, expertos en robótica e incluso filósofos coinciden en apuntar que las máquinas son entes en realidad muy limitados intelectualmente, aunque pueden realizar un trabajo específico de manera perfecta y rápida. De la misma forma que los humanos no competimos contra grúas por quién carga más peso o contra vehículos por quién va más rápido, la inteligencia artificial se ocupa de tareas en las que el hombre no es bueno. El robot es una herramienta, no una competencia.

Imperfección 

Sin embargo, el resultado de la inteligencia artificial no es perfecto, sino que está determinado por los datos que se usan para entrenar los algoritmos, «unos datos que generamos nosotros como sociedad», explica López de Mántaras.
Ese es precisamente el riesgo de la IA, que se utilice de forma inadecuada. Así, puede darse el caso de que un programador malintencionado desarrolle un algoritmo sesgado o inaceptable éticamente, como sucedió con Compas. Este guarismo se creó para ayudar a los jueces de Estados Unidos a decidir sobre la libertad provisional, pero se entrenó con bases de datos de departamentos policiales donde la mayoría de los detenidos eran negros, de modo que el algoritmo estableció que el riesgo de ser criminal era mayor entre esas personas de color.
El sistema se había entrenado con datos incorrectos y el resultado fue un algoritmo racista, algo que podría haberse evitado sometiendo las informaciones a un proceso de certificación, pero, por desgracia, es algo que no suele hacerse.
De hecho, el funcionamiento suele ser justamente el opuesto: «las empresas aplican los algoritmos alegremente y después, cuando ven que no funcionan los retiran», como las cámaras de reconocimiento facial que acaban de prohibirse en San Francisco «porque confunden a una persona normal con un criminal», apunta el experto del CSIC.
Para López de Mántaras, es urgente poner en marcha organismos nacionales capaces de revisar y certificar la valía de los algoritmos y los datos, y de garantizar una correcta aplicación práctica y ética, como ya se hace con los alimentos o los medicamentos.
Otro ejemplo de una inteligencia artificial defectuosa son los asistentes de voz como Alexa o Siri. De hecho, este tipo de aplicaciones domésticas (todos ellos con voz femenina) ya están siendo cuestionados por los expertos. Recientemente, un informe de la Unesco denunció que se trata de aparatos inteligentes sumisos y tolerantes con las actitudes machistas, y normalizan los abusos y los insultos que escuchan en la vivienda.