La paradoja de la Inteligencia Artificial


Muchos la definen generalmente como la posibilidad de crear máquinas o sistemas que puedan tomar decisiones por si mismos en base a la realización de procesos cognitivos parecidos a los humanos u otros animales, lo que implicaría teóricamente que estos podrían mejorarse a sí mismos, o algo más drástico, podrían tomar la decisión de que la raza humana debe desaparecer, ¿Y por qué no lo harían? Las máquinas ya son mejores que nosotros en cálculos y procesos sumamente complejos, lo único que no hacen es tomar decisiones en base a razonamientos propios. Un algoritmo que se evalúa y se modifica a si mismo a conveniencia y sin permiso de su creador puede, en efecto, resultar peligroso.

Hollywood ha llenado nuestra imaginación con todo tipo de tramas sobre las máquinas se apoderan del mundo, creando un ambiente apocalíptico donde un reducto de humanos rebeldes hacen frente al peligro de la aniquilación total. Lo cierto es que si en el futuro nos toca enfrentar a un ejército de máquinas que se han constituido en una fuerza autónoma, capaz de crear sus propios ejércitos y tropas, no tenemos ninguna posibilidad de ganar, cada máquina tendría varias veces multiplicado el coeficiente intelectual de Albert Einstein e imaginen una infantería de estos robots con armas de última generación.

Lo llamativo en todo caso, es que algunas de las mentes más brillantes de la raza humana nos advierten de los peligros que podrían desatarse. El físico teórico, Stephen Hawking considera que "la automatización de las fábricas ya ha arrasado trabajos en la manufactura tradicional, y la proliferación de la inteligencia artificial posiblemente extienda esta destrucción de trabajo a las clases medias, donde solo sobrevivirán los roles creativos y de supervisión", más aún, el científico dice que la Inteligencia Artificial podría significar el fin del raza humana, si los robots llegan a mejorarse así mismo y “deciden desbancarnos a nosotros”, ya que estamos limitados por la evolución biológica.

En ese mismo sentido se pronunció Elon Musk, físico también y emprendedor, fundador de empresas como PayPal, Tesla y SpaceX, quien recientemente se ha estado pronunciando en escenarios políticos sobre la necesidad de regular la inteligencia artificial, llegando a decir incluso que el uso de la IA sin control es como “invocar al demonio”

Ya existen softwares con cierto nivel de inteligencia artificial envuelta en sus procesos, como el caso del reciente un proyecto financiado por Facebook para crear una inteligencia artificial capaz de aprender y desarrollar nuevas tácticas de negociación, pero sus desarrolladores supuestamente tuvieron que apagarlo pues el sistema desarrolló su propia forma de lenguaje casi imposible de descifrar, aunque otras fuentes informan que el proyecto sigue en funcionamiento aún.

Sin embargo, Mark Zuckerberg, fundador de Facebook, no cree en esta visión tan pesimista sobre el tema, y por el contrario, afirma que pensar de esta manera retrasará un sin número de beneficios que traerán consigo las máquinas inteligentes.

Recientemente, Zuckerberg y Musk protagonizaron un debate púbico sobre el tema, contraponiendo sus opiniones, y donde el último afirmó que consideraba que el primero tiene conocimientos limitados sobre el tema en cuestión.


Ciertamente el “deep learning” o aprendizaje profundo, un campo de la inteligencia artificial, el cual implica que un software pueda aprender a partir de la experiencia es algo que puede asustar, pero no todo es oscuro, aunque las proyecciones más positivas para nosotros resultan, a lo menos, extrañas, ya que en este escenario los humanos del futuro se fusionan y mejoran con nanotecnología, haciéndose algo más que humanos, y según Ray Kurzweil, seres con características parecidas a lo que concebimos como divino.

Comentarios

Entradas populares de este blog

Fueron entrenados en el arte de la guerra, pero usaron sus habilidades para salvar a niños tailandeses.

El último partido en pie