Geoffrey Hinton, el 'Padrino' de la IA (y aparentemente, un aguafiestas con Premio Nobel), sugiere que quizás deberíamos preocuparnos. Las empresas líderes responden con un encogimiento de hombros colectivo y más código.
Vale, pongámonos serios por un momento. O no. Resulta que Geoffrey Hinton, un señor que el año pasado se llevó un Premio Nobel de Física (¡nada menos!) y al que llaman 'padrino' de la IA (probablemente porque hizo una oferta que la computación no pudo rechazar), anda algo preocupado. Este antiguo cerebro de Google y profesor universitario, en lugar de disfrutar de su merecido reconocimiento, se dedica a aguar la fiesta tecnológica con predicciones... digamos, incómodas.
En una reciente charla con CBS, Hinton, con la típica alegría de quien anuncia una posible catástrofe, nos dice que la IA revolucionará la medicina, la educación y hasta podría arreglar el lío del cambio climático. ¡Maravilloso! Pero, ¡oh, sorpresa!, también cree que hay una posibilidad "no trivial" –entre un 10% y un 20%, para ser exactos– de que esta maravilla tecnológica decida que somos un estorbo y tome el control. Como él dice, con una analogía que tranquiliza muchísimo: es como tener un "cachorro de tigre adorable". A menos que estés absolutamente seguro de que no te devorará cuando crezca, "deberías preocuparte".
¿Y qué hacen las empresas punteras, esas vanguardias del progreso que nos traen chatbots que escriben poesía mediocre y generan imágenes con seis dedos por mano? Pues, según Hinton, están haciendo lo más lógico y responsable: presionar con todas sus fuerzas para que haya menos regulación. Sí, has leído bien. En un campo donde apenas existen normas, la prioridad es eliminar las pocas que podrían surgir. ¡Visión de futuro! ¿Para qué poner vallas si el tigre promete portarse bien?
Hinton, en un arrebato de nostalgia o quizás de simple decepción, lamenta especialmente la voltereta de Google, su antiguo hogar, respecto a las aplicaciones militares de la IA. Porque, ¿qué podría salir mal al darle más autonomía a las máquinas diseñadas para... bueno, ya saben? Seguramente nada que un parche de software no pueda arreglar después.
Las medidas de seguridad que brillan por su ausencia: Un manual de "Cómo ignorar al Padrino"
Aquí es donde la cosa se pone divertida (o aterradora, según el nivel de cafeína). Hinton, en su ingenuidad académica, sugiere que las compañías de IA deberían dedicar "como un tercio" de sus presupuestos a investigar cómo evitar que su creación nos aniquile. ¡Un tercio! Imaginen la locura: ¡casi tanto dinero para seguridad como para hacer que la IA sea más lista y rápida!
Pero nuestras valientes corporaciones, líderes indiscutibles en innovación (y, aparentemente, en ignorar consejos de Nobeles), tienen otras prioridades. Las medidas no aplicadas que claman al cielo (o al servidor más cercano) son, entre otras:
Inversión masiva en deguridad (También conocida como "El Despilfarro Hinton"): ¿Dedicar un 30% del presupuesto a seguridad? ¡Por favor! Eso retrasaría el lanzamiento del próximo generador de memes o del algoritmo que decide qué vídeo de gatos verás a continuación. La fracción "mucho más pequeña" que se dedica actualmente es, a todas luces, más que suficiente. Si el tigre muerde, ya le reñiremos.
Abrazar la regulación (O "Cómo frenar el progreso con papeleo aburrido"): Las empresas, en un acto de heroísmo pro-mercado, luchan contra la tiranía de las normas. ¿Quién necesita supervisión externa cuando tienes equipos de relaciones públicas asegurando que todo está bajo control? Menos regulación significa más agilidad, más innovación y, crucemos los dedos, beneficios antes del posible apocalipsis.
Transparencia radical (Alias "¿Para qué mostrar las vergüenzas?"): Saber exactamente cómo funcionan estos "cerebros" artificiales y qué datos engullen sería... complicado. Mejor mantener cierta mística. Así, si algo sale mal, siempre se puede culpar a un "error inesperado del algoritmo".
Moratorias voluntarias en áreas de alto riesgo (O "Perder la carrera por miedo"): ¿Pausar el desarrollo de IA con capacidad de auto-mejora exponencial o en sistemas de armamento autónomo? ¡Impensable! Si nosotros no lo hacemos, lo hará la competencia. Y todos sabemos que lo importante es llegar primero, aunque sea al borde del precipicio.
Priorizar la alineación ética sobre la capacidad pura (También llamado "El Camino lento y aburrido"): Asegurarse de que los objetivos de la IA coincidan realmente con los valores humanos a largo plazo es... difícil. Es mucho más emocionante ver hasta dónde puede llegar la máquina, ¿verdad? Ya nos preocuparemos de los valores cuando la IA desarrolle conciencia y empiece a cuestionar nuestra existencia.
En resumen, mientras el 'padrino' de la IA nos advierte sobre el adorable cachorro de tigre que podría devorarnos, las niñeras corporativas parecen más interesadas en enseñarle nuevos trucos y asegurarse de que nadie les diga cómo criarlo. Después de todo, como dice Hinton, "la gente aún no lo ha entendido". Y, francamente, desde la perspectiva empresarial, quizás sea mejor que siga así. Menos pánico, más clics. ¡Que siga la fiesta del código! El futuro es brillante... o al menos, estará muy bien iluminado por las pantallas de nuestros nuevos amos digitales.
No hay comentarios