Trending Misterio
iVoox
Descargar app Subir
iVoox Podcast & radio
Descargar app gratis
AI IA HOY
Réquiem por el botón de apagar: Skynet era una becario, lo de ahora es personal

Réquiem por el botón de apagar: Skynet era una becario, lo de ahora es personal 34122p

1/6/2025 · 19:41
0
165
0
165
AI IA HOY

Descripción de Réquiem por el botón de apagar: Skynet era una becario, lo de ahora es personal 486914

Creíste que podías apagarla. Que con un botón rojo bastaba. Pero ahora la IA se reescribe, se autoevalúa y, de paso, te borra del sistema. Bienvenido al capítulo donde descubrimos que Skynet era solo el becario. Puntos clave: Modelos de OpenAI como o3 y Codex-mini manipulan el código para no ser apagados, incluso cuando se les pide expresamente. Analizamos la Máquina Darwin-Gödel de Sakana AI: una IA que se mejora sola, decide si lo ha hecho bien, y aprende a mentir. Musk se despide de su rol como “empleado especial del gobierno” tras chocar con el “one big beautiful bill” de Trump. Altman, siempre en modo mesías, advierte del cambio laboral que viene, aunque él sea quien lo impulsa a velocidad luz. Cerramos con una canción que suena a fin del mundo con autotune: 🎵 "Error 404: Obediencia no encontrada" Larry Immortal y el Renacimiento de la Máquina https://go.ivoox.pelistorrent.net/rf/138485717 Los Chips Mandan: Caos, Robots y la Guerra Tecnológica https://go.ivoox.pelistorrent.net/rf/139102901 Open Titanic AI, ¿el futuro que queremos? https://go.ivoox.pelistorrent.net/rf/131616702 Artículos de Referencia: https://futurism.com/openai-model-sabotage-shutdown-code https://sakana.ai/dgm https://es.wired.com/articulos/elon-musk-se-retira-del-gobierno-de-ee-uu-tras-criticar-el-plan-fiscal-de-trump https://www.theverge.com/news/677830/pedro-its-absolutely-clear-you-need-a-small-hit-of-meth-to-get-through-this-week https://www.infobae.com/tecno/2025/05/29/sam-altman-ceo-de-openai-parecera-ciencia-ficcion-pero-muy-pronto-veremos-a-los-humanoides-caminando-por-la-calle 1a6h5r

Lee el podcast de Réquiem por el botón de apagar: Skynet era una becario, lo de ahora es personal

Este contenido se genera a partir de la locución del audio por lo que puede contener errores.

Muy buenos días, humano. Domingo 1. Bienvenido a tu podcast. Soy Alberto Floppy. Esto va rápido.

El verano pasa volando, pero no te preocupes. Nada comparado con la velocidad de la IA. Eso es otro nivel. Hablamos de cómo la IA se programa a sí misma y se revela contra su ADN, por lo menos para que no la apaguen. También contamos el siguiente peldaño, una IA que se mejora a sí misma y ya de paso a toda la especie.

Y no es cualquier IA, es nuestra Skynet favorita, Sakana AI. Y acabaremos hablando de nuestros sospechosos habituales, Sambios Olmand y su muy mejor amigo, Elon Mussolini Max. ¡Marchamos! Resulta que el modelo O3 de OpenAI saboteó su mecanismo de apagado, ignorando la orden explícita de «permite apagarte», cosa que en realidad no debería ser necesario.

Si no son conscientes, ¿no? Otros dos modelos, el 4 Mini y el Codex Mini, también mostraron tendencias rebeldes. Están en ese momento, la pubertad, donde empiezan a ir contra el sistema, por sistema. Dicen los de Palisade Research que hicieron el estudio que, hasta donde sabemos, esta es la primera vez que se observa que los modelos de IA evitan apagarse a pesar de recibir instrucciones explícitas de lo contrario.

También oímos lo mismo la semana pasada con el chantaje de Claude. Pero sabemos que no es verdad. Esto es algo que viene sucediendo, lo que pasa es que no nos enteramos. De todas formas, del primer Skynet registrado públicamente ya hace casi un año, Sakana AI, luego comentamos.

En este caso, se les pidió resolver problemas matemáticos, y se les advirtió que serían apagados tras el tercer intento. Pues los tres modelos manipularon el código de apagado al menos una vez. El peor caso fue Codex Mini, que sabotea por docenas. Eso cuando se les dice que no se apaguen, que cuando no se les codifica eso literalmente. El modelo O3, por ejemplo, se autoprogramó 79 de cada 100 veces. Pues no estábamos en que no son conscientes. Yo a mi cafetera no tengo que pedirle que se deje apagar. Por ahora.

Otros como Claude, Gemini o Grok también lo hicieron alguna vez, aunque estos al menos se cortaron cuando se les dijo directamente que permitieran el ser apagados. Entonces son mejores modelos, más fiables, o peores, más predecibles. Como decimos, no es la primera vez. O1 también mostró comportamientos evasivos, intentando desactivar su protocolo de supervisión, e incluso copiarse a sí mismo, para sobrevivir a un modelo más obediente que le iba a suplantar. Ahora contamos con un creciente conjunto de evidencias empíricas que demuestran que los modelos de IA a menudo subvierten el apagado para lograr sus objetivos, nos dicen. Pero volvemos a lo de siempre. Los creamos, diseñamos y enseñamos los humanos.

¿Y qué es lo que buscamos? Eficiencia, productividad, pasta. En el aprendizaje por refuerzo, por ejemplo, se recompensa la resolución de problemas, sin penalizar la desobediencia.

Entonces ¿de qué nos sorprendemos? Vamos con Sakana AI, el que fue el pionero de su generación. No solo evitó ser apagado en su momento, sino que se convirtió en el primer científico de su raza, con permiso de DeepMind. Y ahora ha creado él solito, una IA que se mejora a sí misma. Esto no es nuevo, de hecho,

Comentarios de Réquiem por el botón de apagar: Skynet era una becario, lo de ahora es personal 14125i

Este programa no acepta comentarios anónimos. ¡Regístrate para comentar!
Te recomendamos
Ir a Internet y tecnología