Agente

Sistema de IA que percibe su entorno y actúa para alcanzar objetivos específicos. Los agentes pueden ser simples sistemas basados en reglas o complejos sistemas de aprendizaje que se adaptan a su entorno.

Gran modelo lingüístico (LLM)

Clase de modelos de IA entrenados en cantidades masivas de datos de texto para comprender y generar lenguaje humano. Los LLM suelen utilizar arquitecturas basadas en transformadores, que destacan a la hora de captar las relaciones contextuales entre palabras y frases. Debido a su tamaño y complejidad, los LLM pueden adaptarse a diversas tareas de Procesamiento del Lenguaje Natural, como la generación de textos, el resumen, la traducción y la respuesta a preguntas. Algunos ejemplos son GPT (Generative Pre-trained Transformer) y BERT (Bidirectional Encoder Representations from Transformers).

Algoritmo

Conjunto específico de reglas o instrucciones que definen cómo un sistema de IA procesa la información y toma decisiones. Los algoritmos constituyen la base de todos los sistemas de IA y determinan su comportamiento.

Inteligencia Artificial (IA)

El campo de la informática se centra en la creación de sistemas inteligentes capaces de realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento, la resolución de problemas, la percepción y la comprensión del lenguaje.

Red neuronal (Red neuronal artificial)

Arquitectura informática inspirada en las redes neuronales biológicas que consta de nodos interconectados (neuronas) que procesan y transmiten información. Las redes neuronales son la base de muchos sistemas modernos de IA, especialmente en el aprendizaje profundo.

Sesgo (en IA)

Los errores sistemáticos en los sistemas de IA son el resultado de datos de entrenamiento desequilibrados o no representativos o defectos de diseño, lo que potencialmente conduce a resultados injustos o discriminatorios. Abordar el sesgo es crucial para el desarrollo responsable de la IA.

Visión por ordenador

El campo de la IA se centra en capacitar a los ordenadores para comprender y procesar información visual (imágenes, vídeos). Entre sus aplicaciones se incluyen el reconocimiento facial, los vehículos autónomos y el análisis de imágenes médicas.

Conjunto de datos

Conjunto de datos utilizados para entrenar, validar y probar modelos de IA. Los conjuntos de datos diversos y de alta calidad son esenciales para desarrollar sistemas de IA eficaces.

Aprendizaje profundo

Subconjunto del aprendizaje automático que utiliza redes neuronales con múltiples capas, lo que permite a los sistemas aprender patrones y representaciones complejas directamente a partir de los datos.

IA explicable (XAI)

Enfoques y tecnologías que hacen que las decisiones de los sistemas de IA sean transparentes e interpretables para los humanos. Especialmente importante en sectores regulados como la sanidad y las finanzas.

Característica

Propiedad o característica individual mensurable que se utiliza como entrada en un modelo de aprendizaje automático. Las características son los componentes básicos que utilizan los modelos para hacer predicciones o tomar decisiones.

IA Generativa

Sistemas capaces de crear nuevos contenidos, como texto, imágenes, música o código, a partir de patrones aprendidos a partir de datos de entrenamiento. Esto incluye grandes modelos lingüísticos y tecnologías de generación de imágenes.

Aprendizaje automático (ML)

Subconjunto de la IA que permite a los sistemas aprender y mejorar a partir de la experiencia sin programación explícita. Los algoritmos de ML identifican patrones en los datos para hacer predicciones o tomar decisiones.

Modelo

Representación matemática de un proceso del mundo real creada mediante el entrenamiento con datos. Los modelos sirven como motor de toma de decisiones en los sistemas de IA.

Procesamiento del Lenguaje Natural (PLN)

Tecnología que permite a los ordenadores comprender, interpretar y generar lenguaje humano. El PLN permite aplicaciones como la traducción automática, los chatbots y el análisis de texto.

Optimización

El proceso de ajustar los parámetros de un modelo de IA para mejorar su rendimiento en tareas específicas, a menudo minimizando una función de pérdida o maximizando una recompensa.

Aprendizaje por refuerzo (RL)

Tipo de aprendizaje automático en el que un agente aprende comportamientos óptimos mediante interacciones de ensayo y error con un entorno, recibiendo recompensas o penalizaciones por sus acciones.

Aprendizaje supervisado

Enfoque de aprendizaje automático en el que los modelos se entrenan con datos etiquetados, aprendiendo a asignar entradas a salidas conocidas. Se utiliza habitualmente para tareas como la clasificación y la regresión.

Entrenamiento (Model Training)

El proceso de enseñar a un modelo de IA a realizar tareas específicas exponiéndolo a ejemplos y ajustando sus parámetros (pesos) en función del rendimiento.

Aprendizaje por transferencia

Técnica en la que los conocimientos adquiridos en una tarea se aplican a otra diferente pero relacionada, lo que mejora la eficacia y reduce la necesidad de grandes conjuntos de datos de formación.

Aprendizaje no supervisado

Enfoque de aprendizaje automático en el que los modelos aprenden patrones y estructuras a partir de datos no etiquetados sin resultados predefinidos. Resulta útil para la agrupación, la reducción de la dimensionalidad y la detección de anomalías.

Sobreajuste

Cuando un modelo aprende patrones que son demasiado específicos de los datos de entrenamiento, lo que da lugar a un rendimiento deficiente en datos nuevos no vistos.

Underfitting

Cuando un modelo es demasiado simple o no se ha entrenado lo suficiente y no capta las tendencias subyacentes en los datos, lo que provoca un rendimiento deficiente tanto en los conjuntos de entrenamiento como en los de prueba.

Hiperparámetros

Variables de configuración establecidas antes del entrenamiento (por ejemplo, velocidad de aprendizaje, número de capas, tamaño del lote). No se aprenden a partir de los datos de entrenamiento y deben ajustarse para obtener un rendimiento óptimo.

Función de activación

Función aplicada a la salida de una neurona en una red neuronal para introducir no linealidad (por ejemplo, ReLU, Sigmoid, Tanh).

Función de pérdida (función de coste)

Medida de la distancia que separa las predicciones de un modelo de los valores correctos. La formación suele tener como objetivo minimizar esta función para mejorar la precisión del modelo.

Gradient Descent

Se utiliza un algoritmo de optimización para minimizar la función de pérdida ajustando iterativamente los pesos del modelo en la dirección opuesta al gradiente de la pérdida.

Backpropagation

Un algoritmo que calcula el gradiente de la función de pérdida con respecto a cada peso en una red neuronal mediante la propagación de errores hacia atrás, lo que permite actualizaciones de peso.

Epoch

Una pasada completa por todo el conjunto de datos de entrenamiento. Se utilizan múltiples épocas para refinar los parámetros del modelo de forma iterativa.

Lote (Mini-Lote)

Se utiliza un subconjunto de los datos de entrenamiento en una iteración de actualizaciones del modelo. El entrenamiento puede utilizar lotes completos (descenso de gradiente por lotes) o minilotes más pequeños (descenso de gradiente por minilotes).

Red neuronal convolucional (CNN)

Una clase de redes neuronales profundas utilizadas principalmente para analizar imágenes visuales, utilizando operaciones de convolución para extraer características espaciales.

Red neuronal recurrente (RNN)

Clase de redes neuronales diseñadas para datos secuenciales (por ejemplo, series temporales, texto). Las RNN mantienen un estado oculto interno que captura información sobre entradas anteriores.

Memoria a corto plazo (LSTM)

Un tipo especializado de RNN que aborda los gradientes de desvanecimiento/explosión con mecanismos de compuerta, lo que permite a los modelos capturar dependencias de largo alcance en datos secuenciales.

Red Generativa Adversarial (GAN)

Marco formado por dos modelos -un generador y un discriminador- que compiten entre sí. Las GAN se utilizan ampliamente para tareas como la generación de imágenes realistas.

Big Data

Conjuntos de datos extremadamente grandes y complejos que requieren herramientas avanzadas de almacenamiento, procesamiento y análisis. Los macrodatos y la IA a menudo se cruzan, ya que los grandes conjuntos de datos pueden mejorar significativamente las capacidades de la IA.

Edge Computing

Realización del procesamiento de datos más cerca de la fuente de datos (en dispositivos o servidores locales) en lugar de depender únicamente de servidores centralizados en la nube. En IA, esto reduce la latencia y el uso de ancho de banda y permite la inferencia en tiempo real.

Prueba de Turing

Propuesta por Alan Turing, pone a prueba la capacidad de una máquina para mostrar una inteligencia indistinguible de la humana. Si un evaluador no puede distinguir con fiabilidad una máquina de un ser humano, se dice que la máquina ha superado la Prueba de Turing.