La paradoja de la Inteligencia Artificial
Muchos la definen generalmente como la
posibilidad de crear máquinas o sistemas que puedan tomar decisiones por si
mismos en base a la realización de procesos cognitivos parecidos a los humanos
u otros animales, lo que implicaría teóricamente que estos podrían mejorarse a
sí mismos, o algo más drástico, podrían tomar la decisión de que la raza humana
debe desaparecer, ¿Y por qué no lo harían? Las máquinas ya son mejores que
nosotros en cálculos y procesos sumamente complejos, lo único que no hacen es
tomar decisiones en base a razonamientos propios. Un algoritmo que se evalúa y
se modifica a si mismo a conveniencia y sin permiso de su creador puede, en
efecto, resultar peligroso.
Hollywood ha llenado nuestra imaginación
con todo tipo de tramas sobre las máquinas se apoderan del mundo, creando un
ambiente apocalíptico donde un reducto de humanos rebeldes hacen frente al
peligro de la aniquilación total. Lo cierto es que si en el futuro nos toca
enfrentar a un ejército de máquinas que se han constituido en una fuerza
autónoma, capaz de crear sus propios ejércitos y tropas, no tenemos ninguna
posibilidad de ganar, cada máquina tendría varias veces multiplicado el
coeficiente intelectual de Albert Einstein e imaginen una infantería de estos
robots con armas de última generación.
Lo llamativo en todo caso, es que algunas
de las mentes más brillantes de la raza humana nos advierten de los peligros
que podrían desatarse. El físico teórico, Stephen Hawking considera que "la
automatización de las fábricas ya ha arrasado trabajos en la manufactura
tradicional, y la proliferación de la inteligencia artificial posiblemente
extienda esta destrucción de trabajo a las clases medias, donde solo
sobrevivirán los roles creativos y de supervisión", más aún, el científico
dice que la Inteligencia Artificial podría significar el fin del raza humana,
si los robots llegan a mejorarse así mismo y “deciden desbancarnos a nosotros”,
ya que estamos limitados por la evolución biológica.
En ese mismo sentido se pronunció Elon
Musk, físico también y emprendedor, fundador de empresas como PayPal, Tesla y
SpaceX, quien recientemente se ha estado pronunciando en escenarios políticos
sobre la necesidad de regular la inteligencia artificial, llegando a decir
incluso que el uso de la IA sin control es como “invocar al demonio”
Ya existen softwares con cierto nivel de
inteligencia artificial envuelta en sus procesos, como el caso del reciente un proyecto
financiado por Facebook para crear una inteligencia artificial capaz de
aprender y desarrollar nuevas tácticas de negociación, pero sus desarrolladores
supuestamente tuvieron que apagarlo pues el sistema desarrolló su propia forma
de lenguaje casi imposible de descifrar, aunque otras fuentes informan que el
proyecto sigue en funcionamiento aún.
Sin embargo, Mark Zuckerberg, fundador de
Facebook, no cree en esta visión tan pesimista sobre el tema, y por el
contrario, afirma que pensar de esta manera retrasará un sin número de
beneficios que traerán consigo las máquinas inteligentes.
Recientemente, Zuckerberg y Musk
protagonizaron un debate púbico sobre el tema, contraponiendo sus opiniones, y
donde el último afirmó que consideraba que el primero tiene conocimientos
limitados sobre el tema en cuestión.
Ciertamente el “deep learning” o
aprendizaje profundo, un campo de la inteligencia artificial, el cual implica
que un software pueda aprender a partir de la experiencia es algo que puede
asustar, pero no todo es oscuro, aunque las proyecciones más positivas para
nosotros resultan, a lo menos, extrañas, ya que en este escenario los humanos
del futuro se fusionan y mejoran con nanotecnología, haciéndose algo más que
humanos, y según Ray Kurzweil, seres con características parecidas a lo que
concebimos como divino.
Comentarios
Publicar un comentario