Al crecer como inmigrante, Cyril Gorlla aprendió por sí mismo a codificar y practicó como si fuera un poseso.
“Obtuve excelentes calificaciones en el curso de programación del colegio comunitario de mi madre a los 11 años, en medio de servicios domésticos periódicamente desconectados”, dijo a TechCrunch.
En la escuela secundaria, Gorlla aprendió sobre IA y se obsesionó tanto con la idea de entrenar sus propios modelos de IA que desarmó su computadora portátil para mejorar la refrigeración interna. Estos retoques lo llevaron a realizar una pasantía en Intel durante el segundo año de universidad de Gorlla, donde investigó la optimización y la interpretabilidad del modelo de IA.
Los años universitarios de Gorlla coincidieron con el auge de la IA, en el que empresas como OpenAI recaudaron miles de millones de dólares para su tecnología de IA. Gorlla creía que la IA tenía el potencial de transformar industrias enteras. Pero también pensaba que el trabajo de seguridad estaba pasando a un segundo plano frente a nuevos y brillantes productos.
“Sentí que era necesario un cambio fundamental en la forma en que entendemos y entrenamos la IA”, dijo. “La falta de certeza y confianza en los resultados de los modelos es una barrera importante para la adopción en industrias como la atención médica y las finanzas, donde la IA puede marcar la mayor diferencia”.
Entonces, junto con Trevor Tuttle, a quien conoció cuando era estudiante, Gorlla abandonó su programa de posgrado para iniciar una empresa, CTGT, para ayudar a las organizaciones a implementar la IA de manera más cuidadosa. CTGT lanzó hoy en TechCrunch Disrupt 2024 como parte de la competencia Startup Battlefield.
“Mis padres creen que estoy en la escuela”, dijo. “Leer esto podría sorprenderles”.
CTGT trabaja con empresas para identificar resultados sesgados y alucinaciones de los modelos e intentar abordar la causa raíz de estos.
Es imposible eliminar por completo los errores de un modelo. Pero Gorlla afirma que el enfoque de auditoría de la CTGT puede empoderar a las empresas para mitigarlos.
“Exponemos la comprensión interna de los conceptos de un modelo”, explicó. “Si bien un modelo que le dice a un usuario que ponga pegamento en una receta puede ser gracioso, una respuesta que recomiende a la competencia cuando un cliente solicita una comparación de productos no es tan trivial. Es inaceptable que un paciente reciba información de un estudio clínico desactualizado o que se tome una decisión crediticia basándose en información alucinada”.
Un reciente encuesta de Cnvrg descubrió que la confiabilidad era una de las principales preocupaciones compartidas por las empresas que adoptaban aplicaciones de inteligencia artificial. en un separado estudiar De Riskonnect, un proveedor de software de gestión de riesgos, más de la mitad de los ejecutivos dijeron que les preocupaba que los empleados tomaran decisiones basadas en información inexacta de las herramientas de inteligencia artificial.
La idea de una plataforma dedicada para evaluar la toma de decisiones de un modelo de IA no es nueva. TruEra y Patronus AI se encuentran entre las nuevas empresas que desarrollan herramientas para interpretar el comportamiento del modelo, al igual que Google y Microsoft.
Pero Gorlla afirma que las técnicas de CTGT son más eficaces, en parte porque no dependen del entrenamiento de IA “juez” para monitorear los modelos en producción.
“Nuestra interpretabilidad matemáticamente garantizada difiere de los métodos actuales de última generación, que son ineficientes y entrenan cientos de otros modelos para obtener información sobre un modelo”, dijo. “A medida que las empresas son cada vez más conscientes de los costos de computación y la IA empresarial pasa de ser demostraciones a brindar valor real, nuestro valor es significativo al brindarles a las empresas la capacidad de probar rigurosamente la seguridad de la IA avanzada sin entrenar modelos adicionales ni utilizar otros modelos como jueces. “
Para calmar los temores de los clientes potenciales a las fugas de datos, CTGT ofrece una opción local además de un plan administrado. Cobra la misma tarifa anual para ambos.
“No tenemos acceso a los datos de los clientes, dándoles control total sobre cómo y dónde se utilizan”, dijo Gorlla.
CTGT, egresada de la Laboratorios de personajes acelerador, cuenta con el respaldo de los ex socios de GV Jake Knapp y John Zeratsky (quienes cofundaron Character VC), Mark Cuban y el cofundador de Zapier, Mike Knoop.
“La IA que no puede explicar su razonamiento no es lo suficientemente inteligente para muchas áreas donde se aplican reglas y requisitos complejos”, dijo Cuban en un comunicado. “Invertí en CTGT porque está resolviendo este problema. Más importante aún, estamos viendo resultados en nuestro propio uso de la IA”.
Y, a pesar de estar en una etapa inicial, CTGT tiene varios clientes, incluidas tres marcas anónimas de Fortune 10. Gorlla dice que CTGT trabajó con una de estas empresas para minimizar el sesgo en su algoritmo de reconocimiento facial.
“Identificamos un sesgo en el modelo que se centra demasiado en el cabello y la ropa para hacer predicciones”, dijo. “Nuestra plataforma proporcionó a los profesionales información inmediata sin las conjeturas ni la pérdida de tiempo de los métodos de interpretabilidad tradicionales”.
El enfoque de CTGT en los próximos meses será desarrollar su equipo de ingeniería (por el momento solo están Gorlla y Tuttle) y perfeccionar su plataforma.
Si CTGT logra afianzarse en el floreciente mercado de la interpretabilidad de la IA, podría resultar realmente lucrativo. Firma de análisis Mercados y Mercados proyectos esa “IA explicable” como sector podría valer 16.200 millones de dólares para 2028.
“El tamaño del modelo supera con creces Ley de Moore y los avances en los chips de entrenamiento de IA”, afirmó Gorlla. “Esto significa que debemos centrarnos en la comprensión fundamental de la IA, para hacer frente tanto a la ineficiencia como a la naturaleza cada vez más compleja de las decisiones sobre modelos”.