Tony Fadell le dispara a Sam Altman en la entrevista de TechCrunch Disrupt

El creador del iPod, fundador e inversor de Nest Labs, Tony Fadell, le disparó al director ejecutivo de OpenAI, Sam Altman, el martes durante una animada entrevista en TechCrunch Disrupt 2024 en San Francisco. Hablando sobre su comprensión de la historia más larga del desarrollo de la IA antes de la locura de los LLM y los serios problemas con las alucinaciones de los LLM, dijo: “He estado haciendo IA durante 15 años, gente, no solo estoy diciendo mierda. No soy Sam Altman, ¿vale?

El comentario provocó un sorprendido murmullo de “oohs” de la multitud sorprendida en medio de sólo un pequeño puñado de aplausos.

Fadell había estado en racha durante su entrevista, tocando una serie de temas que van desde qué tipo de “imbéciles” pueden producir excelentes productos hasta qué está mal con los LLM de hoy.

Si bien admitió que los LLM son “excelentes para ciertas cosas”, explicó que todavía quedaban serias preocupaciones que abordar.

“Los LLM están tratando de ser algo ‘general’ porque estamos tratando de hacer realidad la ciencia ficción”, dijo. “(Los LLM son) un sabelotodo… Odio a los sabelotodo”.

En cambio, Fadell sugirió que preferiría utilizar agentes de IA que estén entrenados en cosas específicas y sean más transparentes sobre sus errores y alucinaciones. De esa manera, las personas podrían saber todo sobre la IA antes de “contratarlas” para el trabajo específico en cuestión.

“Los estoy contratando para… educarme, los estoy contratando para que sean copiloto conmigo, o los estoy contratando para reemplazarme”, explicó. “Quiero saber qué es esto”, y agregó que los gobiernos deberían involucrarse para imponer dicha transparencia.

De lo contrario, señaló, las empresas que utilizan IA estarían arriesgando su reputación por “alguna tecnología de mierda”, dijo.

“En este momento todos estamos adoptando esto y no sabemos qué problemas causa”, señaló Fadell. Señaló también que un informe reciente decía que los médicos que usaban ChatGPT para crear informes de pacientes tenían alucinaciones en el 90% de ellos. “Esos podrían matar gente”, continuó. “Estamos usando estas cosas y ni siquiera sabemos cómo funciona”.

(Fadell parecía referirse al informe reciente en el que los investigadores descubrieron que los investigadores de la Universidad de Michigan que estudiaban transcripciones de IA encontraron una cantidad excesiva de alucinaciones, que podrían ser peligrosas en contextos médicos).

El comentario sobre Altman siguió cuando compartió con la multitud que ha estado trabajando con tecnologías de inteligencia artificial durante años. Nest, por ejemplo, utilizó IA en su termostato en 2011.

“No podíamos hablar de IA, no podíamos hablar de aprendizaje automático”, señaló Fadell, “porque la gente se asustaría muchísimo: ‘No quiero IA en mi casa’; ahora todo el mundo quiere IA en todas partes. .”

Leave a Comment