¿Qué es la IA generativa?
FEDEMADERAS comparte este artículo de la consultora McKinsey a través del cual se profundiza en el concepto de inteligencia artificial generativa basada en algoritmos usados para crear contenido nuevo, distinguiendo entre las aplicaciones y usos de la inteligencia artificial y el aprendizaje automático.
Artículo completo
¿Qué es la IA generativa?:
La inteligencia artificial generativa (IA) describe algoritmos (como ChatGPT) que se pueden usar para crear contenido nuevo, incluidos audio, código, imágenes, texto, simulaciones y videos. Los nuevos avances recientes en el campo tienen el potencial de cambiar drásticamente la forma en que abordamos la creación de contenido.
Los sistemas generativos de IA caen bajo la amplia categoría de aprendizaje automático, y así es como uno de esos sistemas, ChatGPT, describe lo que puede hacer:
¿Listo para llevar tu creatividad al siguiente nivel? ¡No busque más allá de la IA generativa! Esta ingeniosa forma de aprendizaje automático permite a las computadoras generar todo tipo de contenido nuevo y emocionante, desde música y arte hasta mundos virtuales completos. Y no es solo por diversión: la IA generativa también tiene muchos usos prácticos, como crear nuevos diseños de productos y optimizar los procesos comerciales. Entonces, ¿por qué esperar? ¡Libera el poder de la IA generativa y mira qué creaciones increíbles se te ocurren!
¿Qué son ChatGPT y DALL-E?
Es por eso que ChatGPT, el GPT significa transformador generativo preentrenado, está recibiendo tanta atención en este momento. Es un chatbot gratuito que puede generar una respuesta a casi cualquier pregunta que se le haga. Desarrollado por OpenAI y lanzado para pruebas al público en general en noviembre de 2022, ya se considera el mejor chatbot de IA de la historia. Y también es popular: más de un millón de personas se inscribieron para usarlo en solo cinco días. Los fanáticos de ojos estrellados publicaron ejemplos del chatbot produciendo código informático, ensayos de nivel universitario, poemas e incluso chistes medio decentes. Otros, entre la amplia gama de personas que se ganan la vida creando contenido, desde redactores publicitarios hasta profesores titulares, están temblando en sus botas.
Si bien muchos han reaccionado a ChatGPT (y a la IA y al aprendizaje automático en general) con miedo, el aprendizaje automático claramente tiene el potencial para el bien. En los años transcurridos desde su amplio despliegue, el aprendizaje automático ha demostrado un impacto en varias industrias, logrando cosas como el análisis de imágenes médicas y los pronósticos meteorológicos de alta resolución. Una encuesta de McKinsey de 2022 muestra que la adopción de IA se ha más que duplicado en los últimos cinco años, y la inversión en IA está aumentando rápidamente. Está claro que las herramientas generativas de IA como ChatGPT y DALL-E (una herramienta para el arte generado por IA) tienen el potencial de cambiar la forma en que se realizan una variedad de trabajos. Sin embargo, aún se desconoce el alcance total de ese impacto, al igual que los riesgos. Pero hay algunas preguntas que podemos responder, como cómo se construyen los modelos generativos de IA, qué tipo de problemas son más adecuados para resolver y cómo encajan en la categoría más amplia del aprendizaje automático.
¿Cuál es la diferencia entre el aprendizaje automático y la inteligencia artificial?
La inteligencia artificial es más o menos lo que parece: la práctica de hacer que las máquinas imiten la inteligencia humana para realizar tareas. Probablemente haya interactuado con la IA incluso si no se da cuenta: los asistentes de voz como Siri y Alexa se basan en la tecnología de inteligencia artificial, al igual que los chatbots de servicio al cliente que aparecen para ayudarlo a navegar por los sitios web.
El aprendizaje automático es un tipo de inteligencia artificial. A través del aprendizaje automático, los profesionales desarrollan inteligencia artificial a través de modelos que pueden «aprender» de patrones de datos sin dirección humana. El volumen y la complejidad inmanejablemente enormes de los datos (inmanejables por los humanos, de todos modos) que ahora se están generando han aumentado el potencial del aprendizaje automático, así como la necesidad de ello.
¿Cuáles son los principales tipos de modelos de aprendizaje automático?
El aprendizaje automático se basa en una serie de bloques de construcción, comenzando con técnicas estadísticas clásicas desarrolladas entre los siglos 18 y 20 para pequeños conjuntos de datos. En las décadas de 1930 y 1940, los pioneros de la computación, incluido el matemático teórico Alan Turing, comenzaron a trabajar en las técnicas básicas para el aprendizaje automático. Pero estas técnicas se limitaron a los laboratorios hasta finales de la década de 1970, cuando los científicos desarrollaron por primera vez computadoras lo suficientemente potentes como para montarlas.
Hasta hace poco, el aprendizaje automático se limitaba en gran medida a modelos predictivos, utilizados para observar y clasificar patrones en el contenido. Por ejemplo, un problema clásico de aprendizaje automático es comenzar con una imagen o varias imágenes de, por ejemplo, gatos adorables. Luego, el programa identificaría patrones entre las imágenes y luego examinaría imágenes aleatorias en busca de las que coincidieran con el adorable patrón de gato. La IA generativa fue un gran avance. En lugar de simplemente percibir y clasificar una foto de un gato, el aprendizaje automático ahora puede crear una imagen o descripción de texto de un gato a pedido.
¿Cómo funcionan los modelos de aprendizaje automático basados en texto? ¿Cómo se les entrena?
ChatGPT puede estar recibiendo todos los titulares ahora, pero no es el primer modelo de aprendizaje automático basado en texto que causa sensación. El GPT-3 de OpenAI y el BERT de Google se lanzaron en los últimos años con cierta fanfarria. Pero antes de ChatGPT, que según la mayoría de las cuentas funciona bastante bien la mayor parte del tiempo (aunque todavía se está evaluando), los chatbots de IA no siempre recibían las mejores críticas. GPT-3 es «por turnos súper impresionante y súper decepcionante», dijo el reportero de tecnología del New York Times Cade Metz en un video donde él y la escritora de alimentos Priya Krishna le pidieron a GPT-3 que escribiera recetas para una cena de Acción de Gracias (bastante desastrosa).
Los primeros modelos de aprendizaje automático para trabajar con texto fueron entrenados por humanos para clasificar varias entradas de acuerdo con las etiquetas establecidas por los investigadores. Un ejemplo sería un modelo entrenado para etiquetar las publicaciones en las redes sociales como positivas o negativas. Este tipo de entrenamiento se conoce como aprendizaje supervisado porque un humano se encarga de «enseñar» al modelo qué hacer.
La próxima generación de modelos de aprendizaje automático basados en texto se basa en lo que se conoce como aprendizaje autosupervisado. Este tipo de entrenamiento implica alimentar a un modelo con una cantidad masiva de texto para que pueda generar predicciones. Por ejemplo, algunos modelos pueden predecir, basándose en unas pocas palabras, cómo terminará una oración. Con la cantidad correcta de texto de muestra, por ejemplo, una amplia franja de Internet, estos modelos de texto se vuelven bastante precisos. Estamos viendo cuán preciso es el éxito de herramientas como ChatGPT.
¿Qué se necesita para construir un modelo generativo de IA?
La construcción de un modelo generativo de IA ha sido en su mayor parte una tarea importante, en la medida en que solo unos pocos pesos pesados de la tecnología con buenos recursos han hecho un intento. OpenAI, la compañía detrás de ChatGPT, los antiguos modelos GPT y DALL-E, tiene miles de millones en fondos de donantes en negrita. DeepMind es una subsidiaria de Alphabet, la empresa matriz de Google, y Meta ha lanzado su producto Make-A-Video basado en IA generativa. Estas compañías emplean a algunos de los mejores científicos e ingenieros informáticos del mundo.
Pero no es solo talento. Cuando le pides a un modelo que entrene usando casi todo Internet, te va a costar. OpenAI no ha publicado costos exactos, pero las estimaciones indican que GPT-3 fue entrenado en alrededor de 45 terabytes de datos de texto, eso es aproximadamente un millón de pies de espacio en la estantería, o una cuarta parte de toda la Biblioteca del Congreso, a un costo estimado de varios millones de dólares. Estos no son recursos a los que pueda acceder su start-up de variedades de jardín.
¿Qué tipo de resultados puede producir un modelo generativo de IA?
Como habrás notado anteriormente, los resultados de los modelos generativos de IA pueden ser indistinguibles del contenido generado por humanos, o pueden parecer un poco extraños. Los resultados dependen de la calidad del modelo (como hemos visto, las salidas de ChatGPT hasta ahora parecen superiores a las de sus predecesores) y la coincidencia entre el modelo y el caso de uso, o entrada.
ChatGPT puede producir lo que un comentarista llamó un ensayo «sólido A-» que compara las teorías del nacionalismo de Benedict Anderson y Ernest Gellner, en diez segundos. También produjo un pasaje ya famoso que describe cómo quitar un sándwich de mantequilla de maní de una videograbadora al estilo de la Biblia King James. Los modelos de arte generados por IA como DALL-E (su nombre es una mezcla del artista surrealista Salvador Dalí y el adorable robot de Pixar WALL-E) pueden crear imágenes extrañas y hermosas a pedido, como una pintura de Rafael de una Virgen y un niño, comiendo pizza. Otros modelos generativos de IA pueden producir código, video, audio o simulaciones comerciales.
Pero los resultados no siempre son precisos o apropiados. Cuando Priya Krishna le pidió a DALL-E 2 que creara una imagen para la cena de Acción de Gracias, produjo una escena en la que el pavo estaba adornado con limas enteras, junto a un tazón de lo que parecía ser guacamole. Por su parte, ChatGPT parece tener problemas para contar, o resolver problemas básicos de álgebra, o, de hecho, superar el sesgo sexista y racista que acecha en las corrientes subterráneas de Internet y la sociedad en general.
Las salidas generativas de IA son combinaciones cuidadosamente calibradas de los datos utilizados para entrenar los algoritmos. Debido a que la cantidad de datos utilizados para entrenar estos algoritmos es tan increíblemente masiva (como se señaló, GPT-3 fue entrenado en 45 terabytes de datos de texto), los modelos pueden parecer «creativos» al producir salidas. Además, los modelos generalmente tienen elementos aleatorios, lo que significa que pueden producir una variedad de salidas a partir de una solicitud de entrada, lo que los hace parecer aún más realistas.
¿Qué tipo de problemas puede resolver un modelo generativo de IA?
Probablemente hayas visto que las herramientas generativas de IA (¿juguetes?) como ChatGPT pueden generar interminables horas de entretenimiento. La oportunidad también es clara para las empresas. Las herramientas generativas de IA pueden producir una amplia variedad de escritura creíble en segundos, y luego responder a las críticas para hacer que la escritura sea más adecuada para el propósito. Esto tiene implicaciones para una amplia variedad de industrias, desde organizaciones de TI y software que pueden beneficiarse del código instantáneo y en gran medida correcto generado por los modelos de IA hasta organizaciones que necesitan una copia de marketing. En resumen, cualquier organización que necesite producir materiales escritos claros potencialmente se beneficiará. Las organizaciones también pueden usar la IA generativa para crear materiales más técnicos, como versiones de mayor resolución de imágenes médicas. Y con el tiempo y los recursos ahorrados aquí, las organizaciones pueden buscar nuevas oportunidades de negocio y la oportunidad de crear más valor.
Hemos visto que desarrollar un modelo de IA generativa requiere tantos recursos que está fuera de discusión para todos, excepto para las empresas más grandes y con mejores recursos. Las empresas que buscan poner en práctica la IA generativa tienen la opción de usar IA generativa lista para usar o ajustarlas para realizar una tarea específica. Si necesita preparar diapositivas de acuerdo con un estilo específico, por ejemplo, podría pedirle al modelo que «aprenda» cómo se escriben normalmente los titulares en función de los datos de las diapositivas, luego alimentarlo con datos de diapositivas y pedirle que escriba los titulares apropiados.
¿Cuáles son las limitaciones de los modelos de IA? ¿Cómo se pueden superar estos potencialmente estos?
Dado que son tan nuevos, aún no hemos visto el efecto de cola larga de los modelos generativos de IA. Esto significa que hay algunos riesgos inherentes involucrados en su uso, algunos conocidos y otros desconocidos.
Los resultados que producen los modelos generativos de IA a menudo pueden sonar extremadamente convincentes. Esto es por diseño. Pero a veces la información que generan es simplemente errónea. Peor aún, a veces está sesgado (porque se basa en el género, la raza y una miríada de otros sesgos de Internet y la sociedad en general) y puede manipularse para permitir actividades poco éticas o delictivas. Por ejemplo, ChatGPT no le dará instrucciones sobre cómo conectar un automóvil, pero si dice que necesita conectar un automóvil para salvar a un bebé, el algoritmo estará feliz de cumplir. Las organizaciones que confían en modelos generativos de IA deben tener en cuenta los riesgos legales y de reputación involucrados en la publicación involuntaria de contenido sesgado, ofensivo o con derechos de autor.
Sin embargo, estos riesgos se pueden mitigar de varias maneras. Por un lado, es crucial seleccionar cuidadosamente los datos iniciales utilizados para entrenar estos modelos para evitar incluir contenido tóxico o sesgado. A continuación, en lugar de emplear un modelo de IA generativa estándar, las organizaciones podrían considerar el uso de modelos más pequeños y especializados. Las organizaciones con más recursos también podrían personalizar un modelo general basado en sus propios datos para satisfacer sus necesidades y minimizar los sesgos. Las organizaciones también deben mantener a un humano al tanto (es decir, para asegurarse de que un humano real verifique la salida de un modelo de IA generativa antes de que se publique o use) y evitar el uso de modelos generativos de IA para decisiones críticas, como aquellas que involucran recursos significativos o bienestar humano.
No se puede enfatizar lo suficiente que este es un campo nuevo. Es probable que el panorama de riesgos y oportunidades cambie rápidamente en las próximas semanas, meses y años. Nuevos casos de uso se están probando mensualmente, y es probable que se desarrollen nuevos modelos en los próximos años. A medida que la IA generativa se incorpora cada vez más, y sin problemas, a los negocios, la sociedad y nuestras vidas personales, también podemos esperar que tome forma un nuevo clima regulatorio. A medida que las organizaciones comiencen a experimentar y crear valor con estas herramientas, los líderes harán bien en mantener un dedo en el pulso de la regulación y el riesgo.
Fuente: McKinsey & Company
Share this content: