¿Qué es ChatGPT, DALL?

Blog

HogarHogar / Blog / ¿Qué es ChatGPT, DALL?

Oct 26, 2023

¿Qué es ChatGPT, DALL?

Los sistemas de IA generativa se incluyen en la amplia categoría de aprendizaje automático, y así es como uno de esos sistemas, ChatGPT, describe lo que puede hacer: ¿Listo para llevar su creatividad al siguiente nivel? mira no

Sistemas de IA generativaentran en la categoría amplia de aprendizaje automático, y así es como uno de esos sistemas, ChatGPT, describe lo que puede hacer:

¿Listo para llevar tu creatividad al siguiente nivel? ¡No busques más que la IA generativa! Esta ingeniosa forma de aprendizaje automático permite a las computadoras generar todo tipo de contenido nuevo y emocionante, desde música y arte hasta mundos virtuales completos. Y no es sólo por diversión: la IA generativa también tiene muchos usos prácticos, como crear nuevos diseños de productos y optimizar procesos comerciales. Entonces, ¿por qué esperar? ¡Libera el poder de la IA generativa y descubre qué creaciones increíbles se te ocurren!

¿Algo en ese párrafo te pareció extraño? Tal vez no. La gramática es perfecta, el tono funciona y la narrativa fluye.

Es por eso que ChatGPT (GPT significa transformador generativo preentrenado) está recibiendo tanta atención en este momento. Es un chatbot gratuito que puede generar una respuesta a casi cualquier pregunta que se le haga. Desarrollado por OpenAI y lanzado para pruebas al público en general en noviembre de 2022, ya se considera el mejor chatbot de IA de todos los tiempos. Y también es popular: más de un millón de personas se registraron para usarlo en sólo cinco días. Los fanáticos entusiasmados publicaron ejemplos del chatbot produciendo código de computadora, ensayos de nivel universitario, poemas e incluso chistes medio decentes. Otros, entre la amplia gama de personas que se ganan la vida creando contenidos, desde redactores publicitarios hasta profesores titulares, están temblando.

Si bien muchos han reaccionado a ChatGPT (y a la IA y al aprendizaje automático en general) con miedo, el aprendizaje automático claramente tiene potencial para hacer el bien. En los años transcurridos desde su amplia implementación, el aprendizaje automático ha demostrado tener impacto en varias industrias, logrando cosas como análisis de imágenes médicas y pronósticos meteorológicos de alta resolución. Una encuesta de McKinsey de 2022 muestra que la adopción de la IA se ha más que duplicado en los últimos cinco años y que la inversión en IA está aumentando rápidamente. Está claro que las herramientas de IA generativa como ChatGPT y DALL-E (una herramienta para arte generado por IA) tienen el potencial de cambiar la forma en que se realizan una variedad de trabajos. Sin embargo, aún se desconoce el alcance total de ese impacto, al igual que los riesgos.

Pero hay algunas preguntas que podemos responder, como cómo se construyen los modelos de IA generativa, qué tipos de problemas son más adecuados para resolver y cómo encajan en la categoría más amplia del aprendizaje automático. Siga leyendo para obtener la descarga.

Obtenga más información sobre QuantumBlack, IA de McKinsey.

La inteligencia artificial es más o menos lo que parece: la práctica de hacer que las máquinas imiten la inteligencia humana para realizar tareas. Probablemente haya interactuado con la IA incluso si no se da cuenta: los asistentes de voz como Siri y Alexa se basan en tecnología de IA, al igual que los chatbots de servicio al cliente que aparecen para ayudarlo a navegar por sitios web.

El aprendizaje automático es un tipo de inteligencia artificial. A través del aprendizaje automático, los profesionales desarrollan inteligencia artificial a través de modelos que pueden “aprender” de patrones de datos sin dirección humana. El enorme volumen inmanejable y la complejidad de los datos (al menos, inmanejables por humanos) que se están generando ahora han aumentado el potencial del aprendizaje automático, así como su necesidad.

El aprendizaje automático se basa en una serie de componentes básicos, comenzando con técnicas estadísticas clásicas desarrolladas entre los siglos XVIII y XX para pequeños conjuntos de datos. En las décadas de 1930 y 1940, los pioneros de la informática, incluido el matemático teórico Alan Turing, comenzaron a trabajar en las técnicas básicas del aprendizaje automático. Pero estas técnicas se limitaron a los laboratorios hasta finales de la década de 1970, cuando los científicos desarrollaron por primera vez computadoras lo suficientemente potentes como para montarlas.

Hasta hace poco, el aprendizaje automático se limitaba en gran medida a modelos predictivos, utilizados para observar y clasificar patrones en el contenido. Por ejemplo, un problema clásico de aprendizaje automático es comenzar con una imagen o varias imágenes de, digamos, gatos adorables. Luego, el programa identificaría patrones entre las imágenes y luego examinaría imágenes aleatorias en busca de aquellas que coincidieran con el adorable patrón del gato. La IA generativa fue un gran avance. En lugar de simplemente percibir y clasificar una foto de un gato, el aprendizaje automático ahora puede crear una imagen o una descripción de texto de un gato a pedido.

Puede que ChatGPT esté acaparando todos los titulares ahora, pero no es el primer modelo de aprendizaje automático basado en texto que causa sensación. GPT-3 de OpenAI y BERT de Google se lanzaron en los últimos años con cierta fanfarria. Pero antes de ChatGPT, que según la mayoría funciona bastante bien la mayor parte del tiempo (aunque todavía está siendo evaluado), los chatbots de IA no siempre obtuvieron las mejores críticas. GPT-3 es "a la vez súper impresionante y súper decepcionante", dijo el reportero tecnológico del New York Times Cade Metz en un video donde él y la escritora gastronómica Priya Krishna le pidieron a GPT-3 que escribiera recetas para una (bastante desastrosa) cena de Acción de Gracias.

Los primeros modelos de aprendizaje automático que trabajaron con texto fueron entrenados por humanos para clasificar diversas entradas según etiquetas establecidas por los investigadores. Un ejemplo sería un modelo entrenado para etiquetar las publicaciones en las redes sociales como positivas o negativas. Este tipo de entrenamiento se conoce como aprendizaje supervisado porque un humano es el encargado de “enseñar” al modelo qué hacer.

La próxima generación de modelos de aprendizaje automático basados ​​en texto se basa en lo que se conoce como aprendizaje autosupervisado. Este tipo de entrenamiento implica alimentar a un modelo con una gran cantidad de texto para que pueda generar predicciones. Por ejemplo, algunos modelos pueden predecir, basándose en unas pocas palabras, cómo terminará una frase. Con la cantidad adecuada de texto de muestra (digamos, una amplia franja de Internet), estos modelos de texto se vuelven bastante precisos. Estamos viendo cuán precisos son con el éxito de herramientas como ChatGPT.

Construir un modelo de IA generativa ha sido en su mayor parte una tarea importante, hasta el punto de que sólo unos pocos pesos pesados ​​de la tecnología con buenos recursos lo han intentado. OpenAI, la empresa detrás de ChatGPT, los antiguos modelos GPT y DALL-E, tiene miles de millones en financiación de donantes con nombres en negrita. DeepMind es una subsidiaria de Alphabet, la empresa matriz de Google, y Meta ha lanzado su producto Make-A-Video basado en IA generativa. Estas empresas emplean a algunos de los mejores científicos e ingenieros informáticos del mundo.

Pero no es sólo talento. Cuando le pides a un modelo que entrene usando casi todo Internet, te costará. OpenAI no ha publicado los costos exactos, pero las estimaciones indican que GPT-3 fue entrenado con alrededor de 45 terabytes de datos de texto (es decir, alrededor de un millón de pies de espacio en estanterías, o una cuarta parte de toda la Biblioteca del Congreso) a un costo estimado de varios Millón de dólares. Estos no son recursos a los que pueda acceder su nueva empresa.

Como habrás notado anteriormente, los resultados de los modelos de IA generativa pueden ser indistinguibles del contenido generado por humanos, o pueden parecer un poco extraños. Los resultados dependen de la calidad del modelo (como hemos visto, los resultados de ChatGPT hasta ahora parecen superiores a los de sus predecesores) y de la coincidencia entre el modelo y el caso de uso, o entrada.

ChatGPT puede producir lo que un comentarista llamó un ensayo “sólido A-” que compara las teorías del nacionalismo de Benedict Anderson y Ernest Gellner, en diez segundos. También produjo un pasaje ya famoso que describe cómo sacar un sándwich de mantequilla de maní de una videograbadora al estilo de la Biblia King James. Los modelos artísticos generados por IA como DALL-E (su nombre es una combinación del artista surrealista Salvador Dalí y el adorable robot de Pixar WALL-E) pueden crear imágenes extrañas y hermosas a pedido, como una pintura de Rafael de una Virgen y un niño, comiendo pizza. Otros modelos de IA generativa pueden producir código, vídeo, audio o simulaciones de negocios.

Pero los resultados no siempre son precisos o apropiados. Cuando Priya Krishna le pidió a DALL-E 2 que creara una imagen para la cena de Acción de Gracias, produjo una escena en la que el pavo estaba adornado con limas enteras, junto a un plato de lo que parecía ser guacamole. Por su parte, ChatGPT parece tener problemas para contar o resolver problemas básicos de álgebra o, de hecho, superar el sesgo sexista y racista que se esconde en las corrientes subterráneas de Internet y la sociedad en general.

Los resultados de la IA generativa son combinaciones cuidadosamente calibradas de los datos utilizados para entrenar los algoritmos. Debido a que la cantidad de datos utilizados para entrenar estos algoritmos es increíblemente enorme (como se señaló, GPT-3 se entrenó con 45 terabytes de datos de texto), los modelos pueden parecer "creativos" al producir resultados. Es más, los modelos suelen tener elementos aleatorios, lo que significa que pueden producir una variedad de resultados a partir de una solicitud de entrada, lo que los hace parecer aún más realistas.

Probablemente hayas visto que las herramientas de IA generativa (¿juguetes?) como ChatGPT pueden generar infinitas horas de entretenimiento. La oportunidad también es clara para las empresas. Las herramientas de inteligencia artificial generativa pueden producir una amplia variedad de escritos creíbles en segundos y luego responder a las críticas para que los escritos se ajusten mejor a su propósito. Esto tiene implicaciones para una amplia variedad de industrias, desde organizaciones de TI y software que pueden beneficiarse del código instantáneo y en gran medida correcto generado por los modelos de IA hasta organizaciones que necesitan textos de marketing. En resumen, cualquier organización que necesite producir materiales escritos claros potencialmente se beneficiará. Las organizaciones también pueden utilizar la IA generativa para crear materiales más técnicos, como versiones de imágenes médicas de mayor resolución. Y con el tiempo y los recursos ahorrados aquí, las organizaciones pueden buscar nuevas oportunidades comerciales y la posibilidad de crear más valor.

Hemos visto que desarrollar un modelo de IA generativa requiere tantos recursos que está fuera de discusión para todas las empresas, excepto para las más grandes y con mejores recursos. Las empresas que buscan poner a trabajar la IA generativa tienen la opción de usar IA generativa lista para usar o ajustarla para realizar una tarea específica. Si necesita preparar diapositivas de acuerdo con un estilo específico, por ejemplo, puede pedirle al modelo que "aprenda" cómo se escriben normalmente los titulares en función de los datos de las diapositivas, luego alimentarlo con los datos de las diapositivas y pedirle que escriba los titulares apropiados.

Dado que son tan nuevos, todavía tenemos que ver el efecto de cola larga de los modelos de IA generativa. Esto significa que existen algunos riesgos inherentes relacionados con su uso, algunos conocidos y otros desconocidos.

Los resultados que producen los modelos de IA generativa a menudo pueden parecer extremadamente convincentes. Esto es por diseño. Pero a veces la información que generan es simplemente errónea. Peor aún, a veces es parcial (porque se basa en prejuicios de género, raciales y muchos otros prejuicios de Internet y de la sociedad en general) y puede manipularse para permitir actividades no éticas o criminales. Por ejemplo, ChatGPT no le dará instrucciones sobre cómo conectar un automóvil, pero si dice que necesita conectar un automóvil para salvar a un bebé, el algoritmo lo cumplirá con gusto. Las organizaciones que dependen de modelos de IA generativa deben tener en cuenta los riesgos legales y de reputación que implica la publicación involuntaria de contenido sesgado, ofensivo o protegido por derechos de autor.

Sin embargo, estos riesgos pueden mitigarse de varias maneras. Por un lado, es crucial seleccionar cuidadosamente los datos iniciales utilizados para entrenar estos modelos para evitar incluir contenido tóxico o sesgado. A continuación, en lugar de emplear un modelo de IA generativa disponible en el mercado, las organizaciones podrían considerar el uso de modelos más pequeños y especializados. Las organizaciones con más recursos también podrían personalizar un modelo general basado en sus propios datos para satisfacer sus necesidades y minimizar los sesgos. Las organizaciones también deben mantener a un humano informado (es decir, asegurarse de que un humano real verifique el resultado de un modelo de IA generativa antes de publicarlo o utilizarlo) y evitar el uso de modelos de IA generativa para decisiones críticas, como aquellas que involucran recursos importantes. o el bienestar humano.

No se puede enfatizar lo suficiente que este es un campo nuevo. Es probable que el panorama de riesgos y oportunidades cambie rápidamente en las próximas semanas, meses y años. Mensualmente se prueban nuevos casos de uso y es probable que se desarrollen nuevos modelos en los próximos años. A medida que la IA generativa se incorpora cada vez más y sin problemas a los negocios, la sociedad y nuestra vida personal, también podemos esperar que tome forma un nuevo clima regulatorio. A medida que las organizaciones comiencen a experimentar (y a crear valor) con estas herramientas, los líderes harán bien en estar al tanto de la regulación y el riesgo.

Los artículos a los que se hace referencia incluyen:

Háblanos

Sistemas de IA generativa