Elon Musk ha planteado recientemente nuevas preocupaciones sobre los riesgos que la inteligencia artificial (IA) representa para la humanidad. Durante un seminario titulado «El Gran Debate sobre la IA» realizado en la Cumbre de la Abundancia a principios de este mes, Musk ha revisado su evaluación previa del riesgo, afirmando que existe una probabilidad del 10-20% de que la IA pueda efectivamente poner fin a la existencia humana en el planeta.
A pesar de esta estimación alarmante, el empresario multimillonario sigue convencido de que los escenarios positivos derivados del desarrollo de la IA superan a los negativos. «Creo que el probable escenario positivo supera al escenario negativo», declaró Musk durante el evento.
Las observaciones de Musk han provocado un acalorado debate en la comunidad científica y entre los expertos en seguridad de la IA. Roman Yampolskiy, investigador de la Universidad de Louisville, ha criticado a Musk, calificando su evaluación del riesgo como «un poco demasiado conservadora». Según Yampolskiy, la probabilidad real de un evento catastrófico relacionado con la IA, denominada «p(doom)», es mucho más alta que las estimaciones de Musk.
Musk ha predicho que la inteligencia digital superará a la inteligencia humana combinada para el año 2030, resaltando la urgencia de abordar los desafíos relacionados con la seguridad de la IA. Durante la cumbre, el empresario comparó el desarrollo de una IA superinteligente con el crecimiento de un niño prodigio, enfatizando la importancia de enseñar a la IA a ser extremadamente curiosa y dedicada a la búsqueda de la verdad.
«Una de las cosas que creo que es increíblemente importante para la seguridad de la IA es tener una IA extremadamente curiosa y en busca de la verdad», afirmó Musk, agregando que su «conclusión definitiva» sobre la mejor manera de garantizar la seguridad de la IA es hacer que la IA crezca de una manera que la obligue a ser veraz y no permitirle mentir, incluso si la verdad puede ser desagradable.