Ed Yardeni e1525958722675

El Dr. Ed Yardeni es una de las principales voces de LinkedIn en economía y finanzas. Colaborador habitual de los principales medios internacionales, actualmente dirige Yardeni Research una firma de consultoría que ofrece estrategias de inversión global, análisis y recomendaciones a clientes institucionales. Es autor de los libros «Predicting the Markets: A Professional Autobiography» y «Fed Watching for Fun & Profit”.
Dr. Ed Yardeni / Yardeni Research

 

I. ¿Está lista la IA para despegar definitivamente? Los locos años 2020 comenzaron en el mercado de valores el 30 de noviembre de 2022. Fue entonces cuando OpenAI lanzó ChatGPT. Me inscribí en la versión de $20 por mes de este programa impulsado por inteligencia artificial (IA). Puede escribir informes y mantener una conversación. Le di una vuelta para ver si podía escribir nuestros Morning Briefings o nuestros QuickTakes más cortos.

Mi decepción fue inmediata. Estaba claro que tendríamos que dedicar más tiempo a verificar los hechos y corregir los numerosos errores en el resultado del programa del que nos lleva escribir nuestra investigación. En otras palabras, hay mucho margen de mejora en esta nueva tecnología. Así que no hay perspectivas inmediatas de pasar el resto de nuestras vidas sin preocupaciones y bebiendo piñas coladas en la playa.

La IA es artificial pero poco inteligente. Es básicamente un modelo de probabilidad estadística que puede digerir grandes cantidades de información de Internet pero carece de la capacidad de reconocer y corregir sus propios errores, lo cual es un atributo clave de la inteligencia.

Las versiones más simples de IA existen desde hace algún tiempo. Microsoft Word ha tenido durante mucho tiempo una función de autocompletar. Cuando lo enciendes, anticipa tus siguientes palabras y sugiere palabras o frases a medida que escribes. Cuando lo esté utilizando, debe verificar que prediga correctamente lo que desea escribir o las próximas palabras que desea escribir. Si hace una predicción incorrecta, inmediatamente reconoce su error y sigue escribiendo, ignorando las sugerencias de autocompletar.

Google describe su Autocompletar como “una función dentro de la Búsqueda de Google que hace que sea más rápido completar las búsquedas que comienzas a escribir. Nuestros sistemas automatizados generan predicciones que ayudan a las personas a ahorrar tiempo al permitirles completar rápidamente la búsqueda que ya tenían intención de realizar. … Además de las predicciones de búsqueda completas, Autocompletar también puede predecir palabras y frases individuales que se basan tanto en búsquedas reales como en patrones de palabras encontrados en la web”.

Otros ejemplos de IA que existen desde hace algún tiempo son Siri de Apple y Alexa de Amazon. Pueden responder con precisión muchas preguntas. Pueden reproducir música, vídeos y audiolibros. Pueden despertarte por la mañana y decirte el tiempo. Pero no pueden conversar contigo. Son ponis de un solo truco como asistentes personales. En mi opinión, la IA estará lista para con plenas capacidades una vez que Siri y Alexa puedan funcionar como asistentes personales multitarea.

Actualmente se gastan miles de millones de dólares en tecnologías de inteligencia artificial. El resultado debería ser una IA más inteligente que impulse la productividad como todos esperan.

II. Conozca al profesor Gary Smith. Gary N. Smith es profesor Fletcher Jones de Economía en Pomona College. Su investigación sobre mercados financieros, razonamiento estadístico e inteligencia artificial ha sido citada con frecuencia. Se ha centrado en las anomalías del mercado de valores, las falacias estadísticas y el mal uso de los datos. Es autor de decenas de artículos de investigación y 16 libros.

Gary era profesor asistente y uno de mis profesores en el programa de doctorado en economía de la Universidad de Yale. Recientemente ha influido en mi forma de pensar sobre la IA. Véase, por ejemplo, su artículo del 15 de enero de 2024 titulado, traducido el título al español, “Contaminación de Internet: si dices una mentira lo suficiente…”.

Sostiene que:

(1) “ChatGPT, Bing, Bard y otros modelos de lenguajes grandes (LLM) son innegablemente sorprendentes. Inicialmente pensado como una herramienta de autocompletar nueva y mejorada, pueden generar respuestas persuasivas a consultas, entablar conversaciones similares a las humanas y escribir ensayos gramaticalmente correctos. Hasta ahora, sin embargo, sus principales éxitos han sido brindar entretenimiento a los adictos a la LLM, recaudar dinero para esquemas de fingir hasta lograrlo y generar desinformación de manera eficiente”.

(2) “Se dice que si se dice una mentira por mucho tiempo, la gente llegará a creerla. En nuestra era de Internet, una mentira repetida en una gran cantidad de lugares de Internet eventualmente será aceptada como verdad por los LLM, particularmente porque no están diseñados para saber qué significan las palabras y, en consecuencia, no tienen una forma práctica de evaluar la verdad o falsedad de las mismas el texto que ingresan y emiten”.

(3) “Es probable que este ciclo autopropulsado de falsedades empeore, mucho más. A medida que los LLM inundan Internet con invenciones intencionales y no intencionales, los LLM estarán cada vez más capacitados en estas falsedades y serán cada vez más propensos a regurgitarlas. No serán sólo tonterías divertidas sobre los osos rusos en el espacio. Serán mentiras crueles sobre personas, empresas y gobiernos, todas dichas con confianza y autoridad, y muchas personas se verán condicionadas a creer las tonterías de los LLM”.