Hora de tomar decisiones: cuidado con el bombo publicitario de la inteligencia artificial generativa
03 de mayo de 2023
El hecho de que la última versión de ChatGPT pueda aprobar exámenes legales, crear medicamentos pioneros, inventar juegos -y mucho más- en cuestión de segundos, ha atraído a hordas de líderes empresariales hacia la inteligencia artificial generativa, como es comprensible.
Sin embargo, por muy maravillosa y atractiva que sea esta nueva vertiente de la IA, los responsables de las empresas deben preguntarse: ¿realmente la necesitamos? ¿O no es más que un juguete útil en lugar de una herramienta empresarial revolucionaria? Para ello, hay que comprender qué mejoras de rendimiento pueden lograrse con las aplicaciones de los chatbots de IA.
Aunque parece que los líderes están hechizados, utilizar la IA porque sí es contraproducente y costoso. Además, al probar, utilizar y comprar soluciones de IA generativa, se alimenta a la bestia que probablemente crecerá más que la humanidad.
Los expertos consideran que la llamada inteligencia general artificial (AGI) - básicamente, un sistema informáticocapazcapaz de generar nuevos conocimientos científicos y realizar todas las tareas humanas. Algunos creen que podría ocurrir en una década.
Por ahora, mucha gente se contenta con utilizar versiones freemium de herramientas de IA generativa. Pero en los negocios no hay nada gratis. Las búsquedas y los resultados que crean se utilizarán para ayudar a empresas como ChatGPT's OpenAI, determinar qué casos de uso y aplicaciones pagarán las empresas y mejorar y desarrollar capacidades.
Mientras tanto, la larga sombra de la AGI se cierne sobre nosotros. Desde que ChatGPT se hizo público en noviembre, un torrente de inversión y talento se ha volcado en la investigación de la AGI. De repente, hemos pasado de tener una startup de AGI, Deepmind, que atrajo 23 millones de dólares en financiación en 2012, a ocho o más organizaciones que operan en este espacio y que han recaudado 20.000 millones de dólares de inversión acumulada este año.
En'Hay que tener en cuenta que, además de la inversión privada, los Estados también participan en esta carrera. Al fin y al cabo, las mejoras en IA ayudan a prestar un mejor servicio a civiles y militares. También es importante tener en cuenta que si una IA logra un rendimiento sobrehumano en la escritura de software, podría, por ejemplo, desarrollar armas cibernéticas. De hecho, hace tres años, un programa de IA derrotó a un experimentado piloto militar estadounidense en un combate aéreo simulado.
Pausa en el progreso
No es de extrañar, entonces, que a finales de marzo, Elon Musk y casi 4.000 firmantes de alto perfil, incluidos ingenieros de Amazon, DeepMind, Google, Meta y Microsoft, intentaran detener la vertiginosa aceleración de la IA generativa en una carta abierta.
Decía: "En los últimos meses, los laboratorios de inteligencia artificial se han enzarzado en una carrera descontrolada por desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede comprender, predecir o controlar de forma fiable". La carta continuaba: "Sólo deberían desarrollarse sistemas de IA potentes cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables."
Todos deberíamos prestar atención cuando los cerebros humanos más inteligentes -no las máquinas- exigen que se detenga el progreso. Pero el temor es que el robot ya se haya escapado. Dadas las posibles ventajas competitivas que se ofrecen si los rivales deciden despreciar estas herramientas de IA, ¿será la tentación de seguir empujando las fronteras de la tecnología más allá de sus límites actuales demasiado fuerte para los líderes empresariales?
En última instancia, como advertía el tecnólogo James Bridle en un reciente ensayo publicado por The GuardianLA IA "es intrínsecamente estúpida". Escribía: "Ha leído la mayor parte de Internet y sabe cómo debe sonar el lenguaje humano, pero no tiene ninguna relación con la realidad".
Bridle pidió a los líderes empresariales que adoptaran una visión ambivalente del ChatGPT y de la IA en general. Además, cree que "conocedora o significativa [era] activamente peligrosa", añadió. "Se corre el riesgo de envenenar el pozo del pensamiento colectivo, y de nuestra capacidad de pensar en absoluto".
Su argumento era que confiar en que la IA haga su magia podría convencer a las organizaciones de tomar atajos y, lo que es peor, apartar a los humanos del puesto de control. Si un directivo decide que hay razones para utilizar y financiar proyectos de IA, siempre necesitará cierto grado de filtro humano.
Mantener a los humanos al mando
La IA podría aportar información más significativa sobre una empresa'de una empresa, sus clientes, los hábitos de consumo, etc. Pero cuando se trata de decidir qué producto lanzar, por ejemplo, son los directivos quienes toman la decisión final. En'Es un poco como utilizar Waze en un viaje en coche.'El conductor debe decidir cuál tomar.
El profesor Erik Brynjolfsson, director del Laboratorio de Economía Digital del Instituto de Stanford para la Inteligencia Artificial Centrada en el Ser Humano, llevó esta analogía más allá y señaló que Waymo'con vehículos autoconducidos. "Funciona el 99,9% de las veces, pero hay un conductor de seguridad humano supervisando el sistema y un segundo conductor de seguridad en caso de que el primero se duerma", dijo en una entrevista reciente. dijo en una entrevista reciente. "Que las personas se vigilen unas a otras no es el camino hacia los coches sin conductor".
Por otra parte, el Instituto de Investigación Toyota ha "le hadado la vuelta", dice Brynjolfsson, permitiendo que el humano esté en el asiento del conductor, tomando las decisiones, y que la IA "actúe como un ángel de la guarda", interviniendo sólo cuando aceche un peligro invisible o pasado por alto. "Creo que es un buen modelo, no sólo para la conducción autónoma, sino para muchas otras aplicaciones en las que humanos y máquinas trabajan juntos ", añadió Brynjolfsson.
Estoy de acuerdo con este análisis. El ser humano debe permanecer en el conductor'o piloto'piloto. Y en un entorno empresarial, el líder debe ocupar un lugar central en el proceso de toma de decisiones, aunque informado por una IA con mejor visibilidad que el ojo humano.