Críticas al aprendizaje profundo
Nota: esta entrada corresponde a la Tarea 5 de la asignatura Introducción a la Inteligencia Artificial del Máster en Cultura Científica de la Universidad Pública de Navarra .
En esta actividad se procede a detectar las críticas encontradas al aprendizaje continuo.
El
aprendizaje profundo es un subconjunto del aprendizaje automático y, por tanto,
de la IA: es una herramienta de entrenamiento para computadoras que imita la
manera en que las neuronas del cerebro humano procesan y recopilan información,
como una red neuronal artificial.
Es utilizado para enseñar a las
máquinas a procesar datos de de forma que imita las capas de nuestro
cerebro para que sean capaces de hacer tareas que antes eran exclusivas del ser
humano.
Se utiliza en casos concretos
como reconocimiento de imágenes, traducción de lenguas e incluso conducción
autónoma.
Sin duda es una herramienta muy
poderosa para encontrar conocimientos que se encuentran ocultos en grandes
cantidades de datos.
Nuestro cerebro está formado por millones de neuronas interconectadas y
los algoritmos de aprendizaje profundo usan redes neuronales artificiales
formadas por múltiples capas de nodos interconectados, (neuronas artificiales o
unidades).
Cada capa procesa la información de la anterior y la entrega a la
siguiente, de este modo va extrayendo características y patrones de cada nivel
superior.
Estos modelos se entrenan con
grandes cantidades de datos etiquetados, para aprender a reconocer y clasificar
patrones.
Los parámetros y las
ponderaciones de la red neuronal se ajustan para reducir la diferencia entre
las salidas previstas y las reales, así poco a poco el modelo se va
perfeccionando hasta que puede predecir o ejecutar tareas con alto nivel de
exactitud y precisión.
Esta herramienta ya se está
implementando en muchos sectores:
- Visión artificial
- Reconocimiento del habla
- Procesamiento del lenguaje natural
- Motores de recomendación
Pero a pesar
de su gran potencial, posee limitaciones y problemas, ya que necesita gran
cantidad de memoria y almacenamiento y consume datos tan rápido, que la
obtención de conjuntos de datos de alta calidad, diversos y bien etiquetados
puede ser un desafío, sobre todo en dominios con datos escasos o
costosos.
También consume muchos recursos
de entrenamiento y energía eléctrica, además puede ser proclive al exceso de ajuste, (obtener buenos
resultados con los datos de entrenamiento, pero malos con los nuevos y
desconocidos).
Como otros aspectos de la IA
también plantea cuestiones éticas de seguridad de datos y sesgos e
imprecisiones del humano.
Por ello es indispensable
desarrollar marcos legales y éticos para generar confianza y reducir riesgos.
En el
futuro se espera que crezca de forma exponencial, incluso tenga un papel
transformador en la sociedad, así como integrarlo con otras tecnologías de
última generación, como la realidad virtual.
Entre otros inconvenientes se encuentran los siguientes:
- complejidad del modelo y ajuste de hiperparámetros, ya que seleccionar la arquitectura y los hiperparámetros adecuados es complicado, (encontrar la combinación óptima puede llevar mucho tiempo y requiere amplia experimentación y pruebas)
- ser propensos al sobreajuste, aprende los datos de entrenamiento tan bien que pierde la capacidad de generalizar bien con nuevos datos y dar lugar a un bajo rendimiento con datos desconocidos
- interpretabilidad y explicabilidad, son modelos de caja negra con una toma de decisiones difícil de entender, ya que explicar las predicciones y entender cómo llega a los resultados puede ser complicado, sobre todo en aplicaciones como la medicina o el derecho
.jpg)


Comentarios
Publicar un comentario