top of page

7 Citas Fascinantes de Geoffrey Hinton sobre la Inteligencia Artificial

Updated: Jan 2, 2024

Conocido como "El Padrino de la IA", el trabajo pionero de Geoffrey Hinton sentó las bases para muchas de las aplicaciones de inteligencia artificial (IA) que utilizamos hoy en día. Científico de la computación y psicólogo cognitivo, obtuvo un doctorado en ciencias de la computación de la Universidad de Edimburgo. Junto con Yoshua Bengio y Yann LeCun, ganó el Premio Turing, conocido como el Premio Nobel de la Computación, en 2018.

A principios de la década de 1990, Hinton comenzó a trabajar en el aprendizaje profundo, un tipo de aprendizaje automático que utiliza redes neuronales artificiales para aprender a partir de datos. Su trabajo fue inicialmente recibido con escepticismo, pero su negativa a cambiar de rumbo resultó correcta y eventualmente condujo a una revolución en la IA. Hoy en día, el aprendizaje profundo se utiliza en diversas aplicaciones y herramientas de IA, incluidos vehículos autónomos, procesamiento de lenguaje natural y sistemas de reconocimiento facial.


Hinton trabajó para Google desde 2013 hasta 2023. Ayudó a crear Google Brain, un equipo de investigación dedicado a avanzar en el estado del aprendizaje profundo. Hinton dejó Google en 2023 para poder hablar libremente sobre los peligros de la IA. Advirtió que no se habían establecido suficientes salvaguardias para controlar la tecnología y que lamenta ligeramente algunas de sus contribuciones al campo.

En un mundo cada vez más dependiente de la IA, las citas, ideas y advertencias de Geoffrey Hinton son más críticas que nunca. A medida que continúa el debate sobre la dirección futura de la IA, su perspectiva, fundamentada en décadas de experiencia e investigación, sirve como una guía crucial mientras exploramos esta nueva frontera.



1. La Dicotomía de la Inteligencia: Biología vs. Lógica

"La IA temprana se basaba principalmente en la lógica. Se intentaba hacer computadoras que razonaran como las personas. La segunda vía proviene de la biología: se intenta hacer computadoras que puedan percibir, actuar y adaptarse como los animales."

En 2011, Hinton resaltó al Globe and Mail las dos principales aproximaciones a la inteligencia artificial: una basada en la lógica humana y la otra en la adaptación biológica. Él cree que el aprendizaje y la adaptación, que son la base del aprendizaje profundo, serán fundamentales para crear una forma compleja de inteligencia artificial. Esto representa un cambio de paradigma con respecto a la IA tradicionalmente programada manualmente.


2. Un Camino Difícil: La Creencia Temprana de Hinton en las Redes Neuronales

"Tuve una carrera de posgrado turbulenta, donde cada semana teníamos una discusión a gritos. Seguía haciendo acuerdos donde decía: 'Bueno, permíteme trabajar en las redes neuronales por otros seis meses, y te demostraré que funcionan'. Al final de los seis meses, diría: 'Sí, pero estoy casi ahí, dame otros seis meses más".

Mirando hacia atrás en su tiempo en la academia con el Globe and Mail en 2017, Hinton mencionó que a pesar de enfrentar escepticismo y resistencia en los primeros días de su carrera, se mantuvo firme en su creencia de que las redes neuronales eventualmente superarían a los enfoques basados en lógica. En ese momento, estas redes habían sido desacreditadas, pero Hinton nunca dudó de que demostrarían ser superiores al enfoque basado en lógica. Esta convicción sentó las bases para el resurgimiento y la adopción generalizada de las redes neuronales en la inteligencia artificial moderna.


3. El Espectro de la Moralidad: La Influencia del Sesgo Humano en la IA

"La IA entrenada por personas buenas tendrá un sesgo hacia el bien; la IA entrenada por personas malas como Putin o alguien así tendrá un sesgo hacia lo malo. Sabemos que van a crear robots de combate. No necesariamente serán buenos, ya que su propósito principal será matar personas."

En la conferencia Collision en 2023, Hinton destaca la naturaleza dual de la IA, subrayando que las decisiones humanas dan forma a su impacto en la sociedad. Él enfatiza la necesidad crítica de medidas proactivas para mitigar las consecuencias negativas de la IA. Sus preocupaciones resuenan profundamente en un mundo que lucha con las implicaciones éticas de las tecnologías de IA en rápida evolución.

4. Una Espada de Doble Filo: Los Peligros Invisibles de la Mejora de la IA

"Me preocupa que si haces que la tecnología funcione mejor, ayudas a la NSA a usarla de manera más indebida. Estaría más preocupado por eso que por los robots asesinos autónomos."

Hablando con The Guardian en 2015, Hinton minimizó las preocupaciones sobre los peligros de la IA autónoma, dirigiendo la atención en cambio a un problema más inmediato: el uso indebido de la IA por parte de organizaciones influyentes para la vigilancia y otros fines maliciosos. Su perspectiva destaca la importancia de abordar no solo los riesgos a largo plazo de la IA, sino también las amenazas inmediatas que plantea su integración en las estructuras de poder existentes.


5. La Promesa del Progreso: Compartir los Beneficios de la IA

"En una sociedad organizada de manera sensata, si mejoras la productividad, hay espacio para que todos se beneficien. El problema no es la tecnología, sino la forma en que se distribuyen los beneficios."

En una entrevista con The Daily Telegraph en 2017, Hinton expresó un optimismo moderado sobre el potencial de la IA para revolucionar campos como la medicina y contribuir al progreso económico. Sin embargo, señaló que el desafío clave radica en asegurar que los beneficios de estos avances se distribuyan equitativamente en la sociedad.

6. La Inevitabilidad del Progreso: Una Carrera Global por el Avance de la IA

"La investigación ocurrirá en China si no ocurre aquí porque hay tantos beneficios en estas cosas, aumentos tan enormes en la productividad."

En una entrevista con National Public Radio (NPR) en 2023, Hinton comentó por qué no firmó una carta suscrita por 30,000 investigadores académicos de IA que pedían una pausa en la investigación de la IA. Reconoció las preocupaciones de la comunidad más amplia de la IA, pero argumentó que detener la investigación no es una solución viable. Su postura destaca las complejidades y desafíos de regular la IA mientras el desarrollo avanza a un ritmo vertiginoso.

7. Un Nuevo Capítulo: El Compromiso de Hinton con una IA Responsable

"Quiero hablar sobre cuestiones de seguridad de la IA sin tener que preocuparme por cómo interactúa con el negocio de Google. Mientras me paguen en Google, no puedo hacer eso."

Al dejar Google en 2023, Hinton comentó a MIT Technology Review que se fue para poder expresar abiertamente sus preocupaciones sin las limitaciones de los intereses corporativos. Tiene la intención de contribuir a la discusión sobre el desarrollo y despliegue responsables de la IA.

La salida de Hinton de Google en 2023 marcó un momento crucial en su carrera, ya que optó por priorizar consideraciones éticas sobre la lealtad corporativa. Su decisión destaca la importancia de discusiones abiertas y francas sobre el desarrollo y despliegue responsable de la IA, libres de presiones comerciales.



Conclusión de las Citas de Geoffrey Hinton


Habiendo dejado Google, Hinton continúa hablando sobre la IA públicamente. Aunque cree que el progreso en el campo de la inteligencia artificial es inevitable y probablemente algo bueno, califica esto con la advertencia de que debemos asegurarnos de que la IA se utilice para el bien y que no se conciba ninguna amenaza existencial.


A medida que la IA continúa evolucionando y permeando todos los aspectos de nuestras vidas, las citas, perspectivas y advertencias de Geoffrey Hinton se vuelven cada vez más importantes. El desarrollo y despliegue seguro y ético de la IA deberían ser una prioridad para gobiernos, empresas y ciudadanos en todo el mundo.

 
 
bottom of page