domingo, 24 noviembre, 2024
20.2 C
Rawson
InicioTecnoElon Musk advierte: hay una probabilidad del 20% de que la inteligencia...

Elon Musk advierte: hay una probabilidad del 20% de que la inteligencia artificial «acabe con la humanidad»

El impacto a largo plazo de la inteligencia artificial en la vida humana todavía es una incógnita. Si bien esta tecnología llegó para solucionar muchos de los problemas cotidianos, el debate acerca de si puede o no exterminar a la civilización convoca a cada vez más expertos. Para Elon Musk, esa hipótesis tiene un 20% de posibilidades de concretarse.

El CEO de Tesla, la red social X y SpaceX afirmó en declaraciones al sitio Business Insider que el riesgo de que una inteligencia artificial destruya a la humanidad es de entre el 10 y el 20%.

Sin embargo, es importante indicar que Musk no mencionó el riesgo de que dicha tecnología se vuelva contra los humanos y su pronóstico no es tan desalentador, ya que declaró que los posibles beneficios compensarán cualquier escenario negativo.

Durante el seminario ‘El gran debate de la IA’, Musk comparó el desarrollo de la IA con la crianza de un niño: «Es casi como criar a un niño, pero uno que es como un súper genio, como un niño con inteligencia divina, y es importante cómo se cría al niño. Una de las cosas que creo que es increíblemente importante para la seguridad de la inteligencia artificial es tener un tipo máximo de búsqueda de la verdad y de IA curiosa».

Pese a sus reiteradas críticas sobre esta nueva tecnología, la que llamó a regular en varias ocasiones, Elon Musk en ningún momento reveló la forma en que realizó los cálculos. Sin embargo, todo indica que habría utilizado una variable llamada P(doom) que, a diferencia de la matemática clásica, no necesita ningún método de averiguación determinado.

Cómo determinar el peligro real de la inteligencia artificial

Elon Musk, jefe ejecutivo deTesla, considera bajo el riesgo que una IA acabe con la civilización. Foto: REUTERS.Elon Musk, jefe ejecutivo deTesla, considera bajo el riesgo que una IA acabe con la civilización. Foto: REUTERS.

La fórmula comenzó como una broma en los foros tecnológicos para describir las probabilidades de que la IA destruya a la humanidad. Esta variable informal y sin base científica busca explicar si hay posibilidades que la humanidad sea aniquilada por un invento específico.

Por eso, la variable P(doom) significa oficialmente “probabilidad de fatalidad” y, como sugiere su nombre, se refiere a las probabilidades de que la inteligencia artificial provoque un escenario apocalíptico.

La escala va de cero a 100, y cuanto más alta sea la puntuación, más convencimiento brindará que la IA no sólo está dispuesta a eliminar a la humanidad, si es necesario, sino que, de hecho, tendrá éxito en llevar a cabo esa tarea.

Debido a su informalidad, resulta difícil establecer una cifra a partir de la cual la extinción supone casi una certeza. Pese a ello, las predicciones suelen ir desde el 5% al 50%, siendo la primera algo probable de que la IA acabe con la existencia humana tal y como la conocemos, y la última, un riesgo exageradamente alto.

Una gran cantidad de científicos y expertos en la materia han declarado que se trata de una posibilidad real; sin embargo, otros indicaron lo contrario.

Uno de los últimos es Michio Kaku, conocido como «el padrino de la IA», quien ha afirmado que la IA está sobrevalorada, en especial ChatGPT, que para él no es más que una «grabadora glorificada».

Hasta el momento, la mayoría de las figuras en el campo de la inteligencia artificial ofrecieron voluntariamente algún tipo de número para llevar algo de tranquilidad a la humanidad.

El cofundador de Ethereum, Vitalik Buterin, advirtió tiene solo un 10 de riesgo en su p(doom). Foto: EFE.El cofundador de Ethereum, Vitalik Buterin, advirtió tiene solo un 10 de riesgo en su p(doom). Foto: EFE.

El cofundador de Ethereum, Vitalik Buterin, quien advirtió sobre la amenaza existencial de la IA, es uno de los menos peligrosos: tiene solo un 10%.

El colíder de superalineación de OpenAI, Jan Leike, lo sitúa entre 10 y 90 , mientras que el director del Centro para la Seguridad de la IA, Dan Hendrycks, actualizó recientemente su número de 20 a más de 80 . Incluso Elon Musk dijo que tiene 20 o 30.

En tanto, una encuesta reciente de ingenieros de IA encontró que su puntaje promedio de p(doom) era 40.

SL

Más noticias
Noticias Relacionadas