Using IAs in the Classroom
Los modelos de IA generativa funcionan mediante el uso de redes neuronales para identificar patrones a partir de grandes conjuntos de datos para luego generar contenidos. Los Large Language Models (LLM) son un tipo de modelo de IA generativa que procesa y genera texto en lenguaje natural.
Disponibilidad de grandes cantidades de textos
Su aparición ha sido posible en parte por la disponibilidad de grandes cantidades de textos, como libros, sitios web, publicaciones y códigos en plataformas de desarrollo colaborativo y redes sociales. Estos textos se pueden utilizar para entrenar los modelos de manera que sean capaces de predecir y generar respuestas de lenguaje natural en una variedad de contextos. Entre las múltiples aplicaciones prácticas que tienen los generadores de texto, como ChatGPT se encuentra la de generar código.
Redes adversarias generativas
Otro avance que ha hecho posible los LLM es la aparición de las redes adversarias generativas (GAN) que pueden ser utilizadas para la generación de texto, mediante el entrenamiento de dos redes neuronales, una que genera textos "falsos" (Generador) y otra que discrimina entre textos "reales" (generados por humanos) y falsos (Discriminador). Las dos redes se entrenan en competencia con el objetivo de mejorar la capacidad del generador para generar textos realistas.
Modelos basados en transformadores
Otro componente de los LLM es que son modelos basados en transformadores descritos por primera vez en un artículo de Google de 2017 (opens in a new tab): la red neuronal aprende el contexto y el significado mediante el seguimiento de las relaciones entre las palabras en la oración. Al encontrar patrones entre elementos matemáticamente, se elimina la necesidad de etiquetar los datos, haciendo posible procesar en paralelo los petabytes de datos de texto que existen en la web.
Los modelos de transformador aplican un conjunto evolutivo de técnicas matemáticas, llamadas atención o autoatención, para detectar patrones incluso entre elementos de datos distantes en una serie, que se influyen y dependen unos de otros.
Los transformadores usan codificadores posicionales para etiquetar elementos de datos que entran y salen de la red.
Las unidades de atención siguen estas etiquetas, calculando una especie de mapa algebraico de cómo cada elemento se relaciona con los demás.
Las consultas de atención generalmente se ejecutan en paralelo mediante el cálculo de una matriz de ecuaciones en lo que se denomina atención de múltiples cabezas.
Este clip muestra en 7 minutos como funciona ChatGPT (opens in a new tab)
Uso en el Aula
GitHub Copilot es una aplicación LLM que se integra en la IDE del desarrollador (VSCode por ejemplo) y que a partir de los comentarios en lenguaje natural (inglés, español, ucraniano, etc.) y del código existente en la carpeta de trabajo (workspace) usa IA generativa para proporcionar sugerencias de código en una gran variedad de lenguajes de programación, incluidos Python, JavaScript, TypeScript, Ruby, Go, Rust, PHP y C#.
Desde que GitHub introdujo GitHub Copilot en Junio de 2021 y en los cursos 21/22 y 22/23 hemos estado usando no sólo GH Copilot sino también Chat-GPT-3 y Chat-GPT-4 en nuestra docencia, en la elaboración y preparación de clases, ejercicios y prácticas e investigando como los alumnos pueden beneficiarse de los mismos.
En esta asignatura les animamos a que usen estas herramientas en sus proyectos y prácticas y que nos cuenten sus experiencias.
References
Use on Education and Programming
-
Harness the power of generative AI for software development (opens in a new tab) by Anton Mirhorodchenko
-
Uso de Asistentes IA en concursos de Programación (opens in a new tab) C. León y C. Rodríguez. 2023.
-
Seminario sobre inteligencia artificial y docencia universitaria de la ULL
30 de Marzo 2023. En los minutos 1:04 al 1:11 se explica el funcionamiento de ChatGPT.
-
Prompt engineering for students – making generative AI work for you (opens in a new tab). Danny Liu. 28 April. 2023
-
GitHub Copilot AI pair programmer: Asset or Liability? (opens in a new tab) Arghavan Moradi Dakhel, Vahid Majdinasab, Amin Nikanjam, Foutse Khomh, Michel C. Desmarais, Zhen Ming (Jack)Jiang Jun 2022
-
James Finnie-Ansley, Paul Denny, Brett A. Becker, Andrew Luxton-Reilly, and James Prather. 2022. The Robots Are Coming: Exploring the Implications of OpenAI Codex on Introductory Programming (opens in a new tab). In Proceedings of the 24th Australasian Computing Education Conference (ACE '22). Association for Computing Machinery, New York, NY, USA, 10–19. https://doi.org/10.1145/3511861.3511863 (opens in a new tab)
-
Copilot, ChatGPT y GPT-4 han cambiado el mundo de la programación para siempre. Esto opinan los programadores (opens in a new tab). Javier Pastor. 28 Marzo 2023. Entrevista con Brais Moore y Miguel Angel Durán. Xataca.com
The Future
-
First Contact
Sparks of AGI: early experiments with GPT-4 by Sebastien Bubeck
- 1:47 (opens in a new tab) – Sebastien starts
- 5:36 (opens in a new tab) – goal of the talk: there is some intelligence in the system
- 6:05 (opens in a new tab) – “beware of trillion-dimensional space and its surprises”
- 8:20 (opens in a new tab) – example demonstrating GPT4’s common sense
- 10:40 (opens in a new tab) – theory of the mind
- 12:29 (opens in a new tab) – theory of mind example
- 14:27 (opens in a new tab) – consensus definition of intelligence by psychologists published in 1994 and if GPT4 matches this definition
- 18:00 (opens in a new tab) – how to test GPT4’s intelligence
- 19:00 (opens in a new tab) – Asking GP4 to write a proof of infinitude of primes
- 22:13 (opens in a new tab) – The Strange Case of the Unicorn
- 27:15 (opens in a new tab) – GPT4 vs Stable Diffusion
- 29:44 (opens in a new tab) – Coding with a copilot that understands
- 32:57 (opens in a new tab) – GPT4’s performance on coding interviews
- 33:41 (opens in a new tab) – GPT4’s weaknesses, which can be overcome with tools
- 36:09 (opens in a new tab) – A mathematical conversation with GPT4
- 42:40 (opens in a new tab) – GPT4 cannot do true planning
- 45:02 (opens in a new tab) – Is GPT4 intelligent and does it matter?
-
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI (opens in a new tab) Lex Fridman Podcast #367
Learning LLMs
- Introduction to Large Language Models (opens in a new tab) by Google Cloud Tech. Youtube.
- Introduction to Generative AI (opens in a new tab) by Google Cloud Tech. Youtube.
- What Is a Transformer Model? (opens in a new tab). March 25, 2022 by Rick Merritt
- Attention Is All You Need (opens in a new tab) by Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin. 12 Jun 2017