TÉRMINOS IA

 ChatGPT: ChatGPT no es más que un sistema de Chat que funciona con inteligencia artificial y que es capaz de mantener conversaciones, además de responder preguntas. Se creó bajo un sistema de lenguaje por inteligencia artificial llamado GPT-3, la idea de este sistema es realizar diversas tareas y actividades que estén relacionadas con el lenguaje.

Los objetivos de esta inteligencia llamada Chat GPT es entender lo que las personas preguntan con gran exactitud. Es decir, esta tecnología podrá entender tus preguntas así incluyen adjetivos o variaciones. 

Es importante destacar que este chat tiene la capacidad de responder de forma muy acertada y concreta. Otra de las grandes ventajas radica en que puede dar respuestas acertadas, con párrafos largos y con información muy exacta.

Redes Neuronales: Las redes neuronales son sistemas de IA inspirados en el cerebro humano, que utilizan capas interconectadas de nodos para procesar datos y aprender patrones. Impulsan aplicaciones como el reconocimiento de imágenes, el procesamiento del lenguaje natural y el diagnóstico sanitario.

Aprendizaje automático (MACHINE LEARNING): es un subconjunto de la IA que se centra en el desarrollo de algoritmos informáticos que mejoran automáticamente mediante la experiencia y el uso de datos. En términos más sencillos, el machine learning permite a los ordenadores aprender de los datos y tomar decisiones o hacer predicciones sin estar explícitamente programados para ello.

En esencia, el machine learning consiste en crear y aplicar algoritmos que faciliten estas decisiones y predicciones. Estos algoritmos están diseñados para mejorar su rendimiento con el tiempo, haciéndose más precisos y eficaces a medida que procesan más datos.

Tokenización: La tokenización es el proceso de sustituir los datos sensibles por símbolos de identificación únicos que conservan toda la información esencial de los datos sin comprometer su seguridad.

Un token es un dato que no tiene ningún significado ni relación con los datos sensibles originales. Actúa como un soporte para el texto plano, por lo que permite que los datos sean utilizados en una base de datos sin revelar la información que protege.

Por tanto, la tokenización busca minimizar la cantidad de datos que una empresa necesita tener a mano y reforzar la seguridad de las transacciones con tarjetas de crédito y de e-commerce. Se minimiza el coste y la complejidad del cumplimiento de las normas de la industria y las regulaciones gubernamentales.

Embedding: Los embeddings son representaciones vectoriales densas de palabras o frases en un espacio continuo de baja dimensión. Estas representaciones permiten capturar relaciones semánticas y contextuales entre las palabras, lo que facilita su procesamiento y análisis por parte de los modelos de aprendizaje automático.

En lugar de tratar cada palabra como una entidad independiente, los embeddings permiten a los modelos entender las similitudes y diferencias entre las palabras en función de su contexto.

A diferencia de las representaciones tradicionales basadas en frecuencias de palabras, los embeddings capturan relaciones semánticas y contextuales entre las palabras, lo que permite a los modelos de aprendizaje automático entender mejor el lenguaje natural.

Lematización:  La lematización es el proceso de dividir un flujo de texto en palabras, frases, símbolos u otros elementos significativos llamados tokens. La lematización es el proceso de agrupar las diferentes formas flexionadas de una palabra para que puedan ser analizadas como un único elemento.

Por ejemplo, la palabra "va" es un token en la frase "Va a la tienda". La palabra "va" es el lema de la palabra "va". El lema de una palabra es su forma base, que puede o no ser la misma que la forma real de la palabra.

Sampling: El sampling o muestreo es una técnica de marketing directo en la cual se envían pequeñas muestras de producto o demostraciones a futuros clientes, con el fin de que las prueben y lo adquieran más a adelante. Esto se realiza de forma gratuita y promocional, empleándose normalmente cuando se lanza un nuevo producto, como forma de publicidad. Suele realizarse como buzoneo, revistas, por correo, en la calle o con la adquisición de otro producto o servicio relacionado.

En Analítica Web se utiliza también el término Sampling para referirse al muestreo de los datos recogidos por una herramienta de analítica web.

Check point: Es una solución de seguridad informática que actúa como un filtro entre la red local y la red externa, controlando el acceso y salida de datos a través de una serie de reglas y políticas configuradas.

Long Short- Term Memory: La memoria larga a corto plazo, (en inglés, long short-term memory o LSTM) es una arquitectura de red neuronal recurrente (RNN) desarrollada para abordar el problema de desvanecimiento de gradiente, 1 ​ que afecta la capacidad de las RNN tradicionales para aprender dependencias a largo plazo en secuencias de datos.

Entrenamiento en secuencia: El entrenamiento de una IA es el proceso por el cual se enseña a las máquinas a reconocer patrones y a hacer predicciones o tomar decisiones basadas en grandes cantidades de datos. Para entenderlo mejor, pensemos en cómo aprendemos los seres humanos a caminar.

Transformers (capa de atención): Los Transformers aparecieron como una novedosa arquitectura de Deep Learning para NLP en un paper de 2017 “Attention is all you need” que presentaba unos ingeniosos métodos para poder realizar traducción de un idioma a otro superando a las redes seq-2-seq LSTM de aquel entonces. Pero lo que no sabíamos es que este “nuevo modelo” podría ser utilizado en más campos como el de Visión Artificial, Redes GenerativasAprendizaje por Refuerzo, Time Series y en todos ellos batir todos los records! Su impacto es tan grande que se han transformado en la nueva piedra angular del Machine Learning.

Paralelizar (entrenamiento en paralelo): El paralelismo o computación paralela es una técnica de programación fundamentada en la idea de dividir los inconvenientes de gran magnitud en apartados de menor tamaño para, de este modo, poder resolverlos en paralelo o de manera concurrente.

GitHub Copilot: GitHub Copilot es un asistente de codificación de IA que te ayuda a escribir código más rápido y con menos esfuerzo, lo que te permite concentrar más energía en la resolución de problemas y la colaboración.

Se ha demostrado que GitHub Copilot aumenta la productividad de los desarrolladores y acelera el ritmo del desarrollo de software. Consulta Investigación: cuantificación del impacto de GitHub Copilot en la productividad y la felicidad de los desarrolladores en el blog de GitHub.

RLFHF (aprendizaje reforzado de feedback humano): El aprendizaje por refuerzo a partir de comentarios humanos (RLHF) es una técnica de machine learning en la que un "modelo de recompensa" se entrena con comentarios humanos directos y luego se utiliza para optimizar el rendimiento de un agente de inteligencia artificial mediante el aprendizaje por refuerzo.

Comments

Popular Posts