El Portal de las Tecnologías para la Innovación

Términos del glosario

Large Language Models

¿Qué es Large Language Models? Los modelos de lenguaje grandes (en inglés, Large Language Models) son modelos de inteligencia artificial diseñados para procesar y comprender lenguaje natural en una escala enorme. Estos modelos se entrenan utilizando técnicas de aprendizaje profundo y grandes cantidades de datos lingüísticos, con el objetivo de capturar las complejidades y las sutilezas del lenguaje humano. Los modelos de lenguaje grandes han demostrado ser muy efectivos en una amplia variedad de tareas de procesamiento de lenguaje natural, como la generación de texto, la traducción automática, el reconocimiento de voz, el análisis de sentimiento y la respuesta automática a preguntas. Algunos ejemplos notables de modelos de lenguaje grandes incluyen el modelo GPT-3 de OpenAI y el modelo T5 de Google.

Large Language Models Leer más »

Lógica difusa

¿Qué es Lógica difusa? La lógica difusa (también conocida como lógica borrosa o fuzzy logic en inglés) es una rama de la lógica matemática que se utiliza en la inteligencia artificial y el machine learning para modelar la incertidumbre y la imprecisión en los datos. A diferencia de la lógica booleana tradicional, que utiliza valores binarios (0 y 1) para representar verdadero y falso respectivamente, la lógica difusa permite la representación de valores intermedios entre 0 (“completamente falso”) y 1 (”completamente verdadero“) , lo que permite una mayor flexibilidad en la descripción de fenómenos que no son totalmente verdaderos ni totalmente falsos. La lógica difusa se aplica en diversas áreas de la inteligencia artificial y el machine learning, como el control de sistemas, el reconocimiento de patrones y la toma de decisiones basadas en datos inciertos o incompletos.

Lógica difusa Leer más »

Los vecinos más próximos – kNN(K-Nearest Neighbor)

¿Qué es Los vecinos más próximos – kNN(K-Nearest Neighbor)? Los vecinos más cercanos (kNN, por sus siglas en inglés de «k-nearest neighbors») es un algoritmo de aprendizaje supervisado utilizado en el campo de la inteligencia artificial y el machine learning. El algoritmo kNN se basa en la idea de que los objetos que son similares están cercanos en un espacio n-dimensional. El objetivo del algoritmo kNN es clasificar nuevos puntos de datos basados en los puntos de datos existentes que están más cercanos a ellos en términos de distancia euclidiana. En el proceso de entrenamiento del modelo kNN, el algoritmo calcula la distancia entre cada punto de datos y los demás puntos de datos en el conjunto de entrenamiento. Cuando se recibe un nuevo punto de datos, el algoritmo busca los k puntos de datos más cercanos a él y clasifica el nuevo punto de datos según la etiqueta (clase) más común de los k vecinos más cercanos. El valor de k es un hiperparámetro del algoritmo y se selecciona de acuerdo con la complejidad del problema y el tamaño del conjunto de datos. El algoritmo kNN es simple y fácil de implementar, pero su eficacia puede verse afectada por la elección del valor de k y la dimensión de los datos.

Los vecinos más próximos – kNN(K-Nearest Neighbor) Leer más »

loT (Inteligencia Artificial de las cosas)

¿Qué es loT (Inteligencia Artificial de las cosas)? AIoT (Inteligencia Artificial de las cosas) se refiere a la integración de la inteligencia artificial con dispositivos conectados a Internet, como sensores, actuadores y dispositivos móviles. La AIoT permite a estos dispositivos tomar decisiones autónomas y mejorar su funcionamiento y eficiencia. La AIoT se utiliza en una amplia variedad de aplicaciones, incluyendo la automatización industrial, la gestión de la cadena de suministro, la salud y la vida en el hogar.

loT (Inteligencia Artificial de las cosas) Leer más »

LSTM: Long short-term memory

¿Qué es LSTM: Long short-term memory? LSTM (Long short-term memory) es un tipo de red neuronal recurrente (RNN) que se utiliza en el aprendizaje profundo para procesar y predecir secuencias de datos. La LSTM fue diseñada para abordar el problema de la desaparición del gradiente en las redes neuronales recurrentes tradicionales, que se produce cuando se retropropaga el error a través de múltiples capas y se pierde información importante en el proceso. La LSTM utiliza una estructura de celda con puertas que permite a la red controlar la cantidad de información que se almacena y se olvida en cada paso de tiempo, lo que la hace especialmente adecuada para el procesamiento de secuencias de datos a largo plazo. Las LSTMs se han utilizado con éxito en una amplia variedad de aplicaciones de aprendizaje profundo, como el procesamiento del lenguaje natural, el reconocimiento de voz, la generación de texto y la predicción de series temporales.

LSTM: Long short-term memory Leer más »

Scroll al inicio