El «Padrino del Aprendizaje Profundo» abandona Google y advierte sobre los riesgos de las IA
El hecho de que tengamos a día de hoy IA que pueden hacer el trabajo por nosotros, reemplazando a los humanos, nos indica lo mucho que ha avanzado la inteligencia artificial y el peligro que supondrá cuando progrese aún más. Esta temática no es algo nuevo, pero resulta que tenemos una figura importante de la industria que nos vuelve a advertir sobre la inteligencia artificial. Así pues, el denominado "Padrino del Aprendizaje Profundo", ha abandonado Google y ha advertido sobre los riesgos de la IA para la humanidad.
Todos hemos visto la increíble evolución de la IA a lo largo de estos últimos años. Parece hasta irreal que hayamos avanzado tan rápido, teniendo en cuenta que años atrás no teníamos nada remotamente similar a lo actual. Los chatbots han existido desde hace décadas sí, pero ChatGPT ha revolucionado lo que es capaz de hacer un chatbot. De hecho, esta IA es la que más nos ha sorprendido y hemos temido a partes iguales. Y es que, como ya habrás imaginado las IA están llegando a un punto donde en un futuro próximo podrían tener un mayor poder del esperado y surge la posibilidad de que podrían dominarnos.
Geoffrey Hinton renuncia a Google y alerta sobre los riesgos de la IA
Cuando OpenAI presentó su modelo GPT-4 más avanzado, no tardaron en cuestionarse si este suponía un peligro para la humanidad. Una forma de saberlo era simplemente preguntando a la IA y ver qué tipo de respuestas ofrece. Aunque para nosotros que una IA se "descontrole" no signifique mucho, los que trabajan en ese departamento si muestran una gran preocupación. De hecho, hablando de ellos, ahora el Dr. Geoffrey Hinton, el conocido como Padrino del Aprendizaje Profundo, ha decidido renunciar su trabajo en Google no sin antes advertir sobre los riesgos de las IA.
Este ha estado trabajando durante la última década encargándose del desarrollo de la inteligencia artificial de Google. Ha sido uno de los investigadores más destacados en este campo y es por ello que es una figura importante del sector. El hecho de que haya decidido renunciar de su cargo en Google ha ido de la mano con su última advertencia sobre las IA, afirmando que no deberían escalar e ir a más hasta que no podamos controlarlas.
Las IA tendrán que ser controladas antes de que avancen al siguiente nivel
Hinton creó DNN Research, compañía que fue adquirida por Google por 44 millones de dólares. Desde ese momento, Hinton empezó a trabajar de forma parcial en Google mientras seguía con su puesto en la Universidad de Toronto. Ha sido valorado por sus contribuciones en aprendizaje profundo, como el reconocimiento del habla y la clasificación de objetos. El problema es que ahora Hinton piensa de forma más distinta y lo primero que tras renunciar a Google es advertir sobre los riesgos de la IA.
Según indica, si el desarrollo de la IA avanza están pueden llegar a ser más inteligentes que los humanos y si no podemos controlarlas, podría ser fatídico. Tal y como dice el reconocido investigador, empresas como Microsoft y Google compiten entre ellas para ofrecer las IA más avanzadas, pero todo esto es solo una fracción de lo que sabemos. El como progresa una IA es algo que solo se conoce de forma interna y de igual forma si surgiera una temida inteligencia artificial "mala", estaríamos en peligro. Hinton reconoce que hay una probabilidad que la gente malvada haga uso de una futura IA que no tenga buenas intenciones. Por ello, recalca en la necesidad de tener bajo control la inteligencia artificial antes de que esta avance más.