noiassinregular / 16 de Junio de 2023
GLOSARIO: Los términos más utilizados en Inteligencia Artificial y sus explicaciones
ilustración de Gastón González - para Revista Anfibia - articulo ¿QUIÉN CONTROLA LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL?

Este glosario fue confeccionado por la Comisión de IAs de ADA para ayudarnos a comprender los términos utilizados cuando se habla de las IAs. 
Te invitamos a volver a esta página mas de una vez, ya que iremos sumando contenido cuando aparezcan nuevos términos o sea necesario agregar alguna aclaración para hacer mas sencillo entender los términos.

 
  • Inteligencia Artificial (Artificial Intelligence)

La inteligencia artificial (IA) es una rama de las ciencias computacionales focalizada en el estudio de modelos capaces de solucionar problemas (traducción, extracción de información, conducción de vehículos, obtención de imágenes, etcétera), basados en dos características fundamentales: el razonamiento y la conducta (López, 2007). Concretamente, su propósito es la simulación de la inteligencia humana en computadoras programadas para aparentar que actúan y piensan, es decir, que poseen un carácter imitativo. Para ello, se crean algoritmos a partir de técnicas de aprendizaje automático que utilizan grandes volúmenes de datos. Los sistemas de IA pueden clasificarse en dos categorías principales: estrechos o generales (Argüello, 2023). Los estrechos están diseñados para realizar tareas específicas (por ejemplo, generar imágenes), mientras que los generales intentan realizar cualquier tarea intelectual posible para un ser humano, actualmente no se cuenta con este tipo de tecnología. A estas dos, se les agregaría una tercera planteada por autores como Bostrom (1998), denominada súper inteligencia artificial, que consistiría en una inteligencia superior a la humana.

Referencias:

Argüello, F. (2023). ¿Cuáles son los tres tipos de inteligencia. Infoteknico. Información técnica de seguridad. [On line] Disponible en: https://www.infoteknico.com/los-tres-tipos-de-inteligencia-artificial/ (Fecha de consulta: 15/5/2023).

Bostrom, N. (1998). How long before superintelligence? International Journal of Futures Studies, 2.

López, B. (2007). Introducción a la inteligencia artificial. (mimeo) [on line] Disponible en: http://www.itnuevolaredo.edu.mx/takeyas/Articulos/Inteligencia%20Artificial/ARTICULO%20Introduccion%20a%20la%20Inteligencia%20Artificial.pdf (Fecha de consulta: 15/5/2023).

 
  • Inteligencia Artificial Generativa (Generative Artificial Intelligence)

Es una rama de la inteligencia artificial que se enfoca en la generación de contenido (imágenes, sonidos, textos, etcétera) a partir de instrucciones declaradas por el usuario mediante un prompt. De acuerdo con Carlson (2015), se trata de algoritmos que convierten datos en productos con una limitada o nula intervención humana, más allá del proceso inicial de programación (Peña-Fernández, Meso-Ayerdi, Larrondo_Ureta, Díaz-Noci, 2023).

  • Hiperparámetro:

Configuraciones ajustables que se eligen para entrenar un modelo de aprendizaje y que rigen el aprendizaje (Luo, 2016; Villalobos, Quesada, Martínez & Jenkis, 2020).

 
  • Ajuste de hiperparámetros  (hyperparameter tuning o hyperparameter optimization)

Es el proceso de ajustar los parámetros en un modelo de aprendizaje automático durante el entrenamiento, con el fin de mejorar su rendimiento.

 
  • Anotación de imágenes

Subconjunto del etiquetado de datos consistente en la adición, manual o automática, de atributos a una imagen con el propósito de que los dispositivos computacionales puedan llevar a cabo diversas tareas (generación de imágenes, clasificación, etcétera) en las que esté involucrada la identificación de objetos. Por ejemplo, en el ámbito de la detección de sentimientos, se les puede asignar a rostros humanos las etiquetas ‘alegre’ (‘happy’) o ‘triste’ (‘sad’), según corresponda:

 

Fuente:

Shaip (SD) Anotación y etiquetado de imágenes para visión artificial. [En línea] Disponible en: https://es.shaip.com/blog/image-annotation-for-computer-vision/ (Última consulta: 19/5/2023).

 

  • Aprendizaje automático (machine learning)

Un método de entrenamiento de algoritmos que se nutre de grandes cantidades de datos, permitiendo que el mejoren su rendimiento, sin necesidad de programación explícita.

 
  • Aprendizaje por refuerzo a partir de la retroalimentación humana (Reinforcement learning)

Una técnica de aprendizaje automático en la que un sistema de inteligencia artificial (IA) aprende a partir de la retroalimentación o indicaciones proporcionadas por un usuario o entrenador humano.

 

  • Agrupamiento (Clustering)

El proceso de agrupar puntos de datos juntos en función de la similitud o las características comunes.

 

  • Aprendizaje en conjunto

Una técnica de aprendizaje automático en la que se entrenan y combinan múltiples modelos para hacer predicciones, con el objetivo de mejorar el rendimiento general del modelo.

 
  • Aprendizaje profundo (Deep learning)

Un subcampo del aprendizaje automático que implica el entrenamiento de redes neuronales multicapa para aprender y tomar decisiones de manera independiente.

 
  • Autoencoder

Un tipo de red neuronal utilizado para la reducción de dimensionalidad y el aprendizaje de características, que consta de un codificador y un decodificador que aprenden a comprimir y reconstruir datos, respectivamente.

 
  • Bagging

Una técnica de conjunto de aprendizaje automático en la que se entrenan múltiples modelos en diferentes subconjuntos aleatorios de los datos de entrenamiento y se combinan para hacer predicciones, con el objetivo de reducir las diferencias eliminando datos que sumarían confusión y mejorar así la generalización del modelo.

 
  • Big data

Conjuntos grandes de datos que pueden ser analizados y utilizados para obtener información y tomar decisiones.

 
  • Clasificación de imágenes

El proceso de asignar una imagen a una o más categorías o clases predefinidas. (ver Anotación de imágenes)

 
  • Chatbot

Es un software basado en la inteligencia artificial conversacional, que es capaz de mantener un diálogo actuando de manera similar a la humana, en lenguaje natural, con los usuarios sobre un tema específico.

 
  • ChatGPT

Un chatbot de OpenAI construido sobre su modelo de Big Data GPT, entrenado con datos textuales extraídos de internet. (Ver Chatbot, Big Data)

GPT-4 es nombre del más reciente modelo de lenguaje preentrenado de OpenAI, una compañía de inteligencia artificial que anteriormente ha lanzado otras versiones del modelo, GPT (2018), GPT-2 (2019), GPT-3 (2020) y GPT-3.5 (2022), y que también está detrás de otra herramienta popular, el generador de imágenes DALL·E.

 
  • Clasificación

El proceso de categorizar datos en clases o grupos predefinidos.

 
  • Computación cognitiva (cognitive computing)

El desarrollo de sistemas informáticos que pueden realizar tareas que normalmente requieren inteligencia similar a la humana, como el aprendizaje y la resolución de problemas.

 

  • Dataset

Un Dataset representa un conjunto completo de datos, incluyendo las tablas que contienen, ordenan y restringen los datos, así como las relaciones entre las tablas.

 

  • Deep fakes

Inteligencia artificial focalizara en la creación de videos falsos en los que intervienen personas que aparentemente son reales. Es decir, el algoritmo imita la apariencia física, la voz y demás características propias de una persona o de un grupo. Algunos productos generados por esos dispositivos han logrado engañar tanto a personas como a algoritmos computacionales.

 
  • Detección de objetos

El proceso de identificar y localizar objetos en una imagen o video.

 
  • Embedding

Sistema de codificación de tokens que los relaciona entre sí para ordenarlos por diferentes jerarquías en relación a su uso habitual, como pueden ser proximidad, oposición, familiaridad etc.

Ejemplo de embedding llevado al lenguaje: convierte el lenguaje humano en vectores matemáticos. Estos vectores son una representación del significado subyacente (oculto) de las palabras, de este modo, palabras como ‘cerveza’, ‘vino’, ‘whisky’ van a ser más cercanos que otras como ‘perro’ o ‘bicicleta’. En el procesamiento del lenguaje natural este tipo de técnicas logran resultados efectivos. 

 
  • Estancamiento (stagnation)

Posibilidad de límite que encuentre un sistema en su capacidad de procesamiento para seguir avanzando y llegar a alcanzar a la inteligencia humana.

 
  • Fake News

Las Fake News o noticias falsas, son noticias, historias, artículos, etc. engañosas, creadas para desinformar deliberadamente o engañar al lector. Normalmente, las fake news suelen utilizarse para influir en las opiniones de los usuarios, marcar la agenda política o generar desinformación, entre otros propósitos.

 
  • Modelo

El modelado de inteligencia artificial es la creación, el entrenamiento y la implementación de algoritmos de aprendizaje automático que emulan la toma de decisiones lógicas a partir de los datos disponibles

 
  • Datos sintéticos

Los datos sintéticos son datos generados artificialmente que imitan los patrones existentes en los datos reales. Estos datos se usan en aplicaciones como la minería de datos, el aprendizaje automático y la simulación de sistemas complejos.

 
  • GAN

Un tipo de modelo generativo que consta de dos redes neuronales que compiten, un generador y un discriminador, que aprenden a generar y reconocer datos sintéticos, respectivamente.

 
  • OpenAI

OpenAI es una compañía de investigación de inteligencia artificial, que se anuncia sin fines de lucro, y que tiene como objetivo promover y desarrollar inteligencia artificial amigable de tal manera que, según dicen, beneficie a la humanidad en su conjunto.

 
  • GPT

Un modelo de lenguaje grande desarrollado por OpenAI que utiliza la arquitectura de transformador y el aprendizaje auto-supervisado para generar texto similar al humano.

 
  • Generación de imágenes

El proceso de crear imágenes sintéticas utilizando técnicas de inteligencia artificial.

Esto es, programas que pueden generar imágenes realistas a partir de la entrada de un texto en lenguaje natural.

 
  • Hiperparámetros

Los hiperparámetros son parámetros ajustables que permiten controlar el proceso de entrenamiento de un modelo. Por ejemplo, con redes neuronales, puede decidir el número de capas ocultas y el número de nodos de cada capa. El rendimiento de un modelo depende en gran medida de los hiperparámetros.

 
  • Implementación del modelo

El proceso de hacer un modelo de aprendizaje automático disponible para su uso en entornos de producción, como implementarlo en un servidor web o integrarlo en una aplicación.

 
  • Inferencia

Se denomina así al momento en donde nosotros introducimos un texto en el sistema para preguntar algo o solicitar una imagen.

 
  • Inpainting

El proceso de reparar, reemplazar sectores, o rellenar partes dañadas y/o faltantes de una imagen.

 
  • Mejora de imagen

El proceso de mejorar la calidad visual de una imagen, como aumentar su contraste, resolución o eliminar el ruido.

 
  • Modelo generativo

Un modelo de aprendizaje automático que aprende la distribución subyacente de los datos y puede generar muestras nuevas y sintéticas de ella.

Se llama datos sinteticos a la informacion generada de forma artificial, la cual puede usarse en lugar de datos históricos reales, y así entrenar modelos de IA (esto, cuando los conjuntos de datos reales carecen de volumen, calidad o variedad).

 
  • Minería de datos (data mining)

El proceso de extraer patrones y conocimientos útiles de grandes conjuntos de datos no estructurados a partir de técnicas estadísticas.  

 
  • Modelo estadístico del lenguaje

Un modelo estadístico utilizado en inteligencia artificial para predecir la probabilidad de una secuencia de palabras o tokens en un idioma. Los modelos de lenguaje se utilizan comúnmente en tareas de procesamiento del lenguaje natural para generar texto coherente y apropiado.

 
  • Lenguaje Natural: 

Se entiende como tal a la lengua o idioma utilizado por los individuos para propósitos generales de comunicación.

 
  • Modelo de lenguaje grande

Un modelo estadístico de inteligencia artificial que se entrena en un conjunto de datos muy grande de textos y utiliza técnicas de aprendizaje automático para identificar patrones y la estructura del lenguaje. Los modelos de lenguaje grandes se utilizan comúnmente para tareas como la generación de lenguaje, la traducción automática y la clasificación de texto, y son capaces de generar texto similar al humano con un alto grado de coherencia y fluidez.

 
  • Modelo de texto a imagen

Un sistema de aprendizaje automático que genera imágenes basadas en descripciones realizadas en lenguaje natural.

 

  • Máquina tragamonedas de brazos múltiples (Multi Arm Slot Machine) 

Refiere al concepto de un jugador humano que intenta averiguar qué máquina tragamonedas producirá los mejores resultados.

El sistema establece un problema de aprendizaje por refuerzo en el que un agente debe elegir entre un conjunto de acciones posibles, cada una con una distribución de recompensa desconocida, y aprender cuáles son las más gratificantes a través de la prueba y error.

 

  • Parámetros

Los parámetros son aquellos valores o argumentos (si lo vemos de una óptica de programación) que definen a las operaciones dentro del modelo.

 
  • Preprocesamiento

El proceso de preparar los datos para su uso en un modelo de aprendizaje automático, que incluye la limpieza, transformación y escalado de los datos.

 
  • Procesamiento del lenguaje natural

Ámbito multidisciplinar de las ciencias de la computación y la lingüística orientada a la resolución de problemas en los que está involucrado el lenguaje. Concretamente se focaliza en lograr dispositivos que permitan la comunicación con el ser humano, de la manera más efectiva posible.  

 
  • Preprocesamiento de imágenes

El proceso de preparar las imágenes para su uso.

 

  • Prompt 

Se llama prompt al carácter o conjunto de caracteres declarados con el propósito de que un dispositivo computacional ejecute una orden. La estructura de un prompt puede variar dependiendo del intérprete de comandos y suele ser configurable.

En relación con las IAs, los prompts son el medio de “decirle” a un dispositivo qué queremos y cómo queremos que genere un contenido. 

 
  • Reconocimiento de patrones

La capacidad de identificar patrones o regularidades en los datos. Ejemplo: a nivel de pixels de una imagen, por ejemplo.

 
  • Red neuronal recurrente

Un tipo de red neuronal diseñada específicamente para procesar datos secuenciales, utilizando conexiones de retroalimentación para permitir que la red recuerde y utilice información pasada.

 
  • Reducción de dimensionalidad

El proceso de reducir el número de características o dimensiones en un conjunto de datos mientras se preserva tanta información como sea posible (sirve para reducir la información de una imagen).

 
  • Reconocimiento facial

El proceso de identificar y verificar individuos en función de sus rasgos faciales.

 
  • Red generativa adversarial

Un tipo de red neuronal que consta de dos redes neuronales que compiten, un generador y un discriminador, que aprenden a generar y reconocer datos sintéticos, respectivamente.

 
  • Reconstrucción

Fase en el que el sistema toma los embeddings y los reconstruye para ampliarlos y acercarse al modelo original que fuera resumido.

 
  • Recuperación de imagen

El proceso de buscar y recuperar imágenes de una gran base de datos en función de su contenido visual.

 
  • Representación del conocimiento

La forma en que se codifica y almacena el conocimiento en un sistema informático.

 
  • Red neuronal artificial

Un tipo de algoritmo de aprendizaje automático modelado sobre la estructura y función del cerebro humano, que consiste en capas de "neuronas" interconectadas que pueden procesar y transmitir información.

 
  • Red neuronal convolucional

Un tipo de red neuronal diseñada específicamente para tareas de reconocimiento de imágenes y video, utilizando múltiples capas para aprender y reconocer patrones en los datos allí volcados.

 
  • Sampling

Sistema aleatorio de combinación de embeddings que le da al programa la capacidad de generar respuestas con variedad casual que permite aparentar creatividad y naturalidad en sus resultados.

 

  • Scraping

El web scraping (o “raspado web”) refiere a la recopilación de datos de distintos sitios web. Es una técnica que se utiliza para extraer automáticamente grandes cantidades de datos de páginas web y guardarlos en una base de datos

 
  • Scraping de datos

El scraping de datos, de un modo general, se refiere a una técnica en la cual un programa informático extrae datos del resultado generado por otro programa. El scraping de datos se manifiesta normalmente en el scraping web, el proceso de utilizar una aplicación para extraer información valiosa de un sitio web.

 
  • Sueño profundo

Una técnica de generación de imágenes desarrollada por Google que utiliza una red neuronal convolucional para generar imágenes oníricas amplificando las características de la red.

 
  • Sistema experto

Un programa informático que utiliza técnicas de inteligencia artificial para imitar las habilidades de toma de decisiones de un experto humano en un campo específico.

 
  • Subtítulo de imagen

El proceso de generar una descripción en lenguaje natural de una imagen, equivalente al prompt que la invocaría.

 
  • Segmentación de imagen

El proceso de dividir una imagen en múltiples regiones o segmentos, cada uno representando un objeto o fondo diferente.

 
  • Selección del modelo

El proceso de elegir el mejor modelo entre un conjunto de modelos candidatos para una tarea determinada.

 
  • Stable Diffusion

La Stable Diffusion es un modelo de texto a imagen basado en el aprendizaje profundo que puede generar imágenes altamente detalladas basadas en descripciones de texto, (Prompts)

 
  • Transformers

Básicamente es un revolucionario proceso organizativo de embeddings que le permite al sistema entender sobre qué tema está trabajando para diferenciar por ejemplo palabras que se utilizan en varias áreas, por ejemplo, la palabra orden en un contexto familiar puede relacionarse a ordenar un ambiente y en un entorno militar orden sería una obligación a realizar algo.

 
  • Token

En el PLN, fragmento de una cadena textual que se corresponde con una unidad de interés declarada por el usuario (generalmente palabras). A modo de ejemplo, una oración como ‘El niño corre por el parque’ puede tokenizarse de las siguientes maneras:

[El] [niño] [corre] [por] [el] [parque]

[El niño] [corre por el parque]

[El niño corre por el parque]

 

  • Traducción de imagen a imagen

El proceso de convertir una imagen de un dominio a otro, como traducir una fotografía a una pintura o un boceto.

 

  • Transferencia de estilo

El proceso de transferir el estilo de una imagen a otra, manteniendo el contenido de la segunda imagen.

 

Fuentes

Contenido elaborado por la Comisión IAs / Pablo Acosta, Poly Bernatene, Gabriela Calza Bolschetti, Walter Koza, Marcelo Otero, Lucía Vidal