Ir al contenido principal

Inteligencia artificial

 La inteligencia artificial (IA) es una rama de las ciencias de la computación que incluye conceptos muy transversales relacionados con la lógica y el aprendizaje. Se trata, por lo tanto, de diseñar herramientas informáticas que simulen procesos de inteligencia humana que incluyen el aprendizaje, el razonamiento y la autocorrección. Mediante diversos algoritmos las máquinas «aprenden» y son capaces de «tomar decisiones». No se trata de ciencia ficción, sino de una realidad que está presente actualmente y que poco a poco va a ir ocupando espacios cotidianos en nuestra casa, en nuestros vehículos y también relacionados con nuestra salud.


La teoría del procesamiento de la información de Mahoney considera al ser humano como un procesador de información a partir de estímulos internos y externos que va almacenando en memoria y que es capaz de elaborar respuestas similares a partir de estímulos posteriores que tengan cierta similitud. Según esta teoría los elementos estructurales en el procesamiento de la información son: 
  • Registro sensitivo (recepción de información interna y externa).
  • Memoria a corto plazo (almacenamiento inmediato de la información seleccionada). 
  • Memoria a largo plazo (que organiza y dispone la información durante más tiempo). 
Además, las categorías del procesamiento son: 
  • Atención (recibe, selecciona y asimila los diferentes estímulos).
  • Codificación (simboliza los estímulos según estructuras mentales propias). 
  • Almacenamiento (organiza y mantiene en la memoria los símbolos codificados).
  • Recuperación (uso posterior de la información organizada y codificada ante estímulos similares a los que la han ocasionado).

El aprendizaje humano se basaría en la exposición a situaciones repetidas con refuerzos (positivos o negativos) cada vez que tomamos una decisión correcta o erramos. A partir de estímulos similares que tienen soluciones similares y a través de nuestra experiencia y conocimientos previos, empezamos a tomar decisiones. La toma de decisiones supone un pensamiento lógico y jerárquico que puede ser transcrito a algoritmos en un lenguaje que las máquinas pueden interpretar y ejecutar con mucha mayor rapidez que el ser humano.

El aprendizaje humano es progresivo y se desarrolla a partir de la exposición a situaciones de forma consecutiva, proceso que puede llevar años, en cambio, la adquisición de estos datos por parte de una máquina es mucho más rápida, ya que esta no se agota (puede trabajar 24 h al día) y no tiene funciones vitales (alimentación, descanso u ocio). En este sentido las cantidades ingentes de datos en múltiples formatos y fuentes lo que conocemos como big data, tienen una relación directa con la adquisición de experiencia por parte de las máquinas que se exponen a situaciones o estímulos muy diversos. 

Comentarios

Entradas más populares de este blog

Redes neuronales, cerebro y aprendizaje

La base biológica de la inteligencia está en el cerebro. Aunque vamos conociendo cada vez más sobre su fisiología y las diferentes vías anatómicas y funcionales que participan en el proceso de aprendizaje humano, aún existen muchas incógnitas que deben despejarse. Para las máquinas existe una analogía similar a la estructura y el funcionamiento del cerebro, por lo que es relativamente sencillo establecer esta analogía fácilmente comprensible para los profesionales de la salud. Las redes neuronales artificiales, en inglés  Artificial Neural Networks  (ANN) están compuestas por elementos que se comporten de forma similar a la neurona biológica en sus funciones más comunes y que se denominan «elemento procesador», en inglés  Process Element  (PE). Cada uno de los PE (neuronas) tienen unos elementos de entrada (dendritas) que recogen los impulsos de entrada que son integrados en el cuerpo del elemento procesador y generan una respuesta o salida. La salida del PE (axón) se puede conectar a

Antecedentes

Aunque todo este campo de la informática es innovador en algunos aspectos, tiene antecedentes en los años 40 del siglo XX. En 1943, el neurobiólogo Warren McCulloch y el estadístico Walter Pitss, publicaron un artículo que definía que los eventos neuronales y las relaciones entre ellos pueden tratarse mediante la lógica proposicional . De esta manera se conforma la base y el inicio del desarrollo de la IA tal y como hoy la concebimos. Pero no fue hasta una década más tarde, en 1956, cuando se celebró la primera Conferencia de Inteligencia Artificial en Darmouth que es considerada como la primera referencia seria a las redes neuronales artificiales. En esta conferencia se presentó la lógica teórica (Minsky, McCarthy, Rochester y Shannon) que es considerado el primer programa informático para solucionar problemas de búsqueda heurística. En 1957 se presentó «Perceptron» el primer sistema capaz de identificar patrones geométricos, y en 1959 «Adaline» (Adaptive Linear Neuron) que fue utiliz

Inteligencia artificial y robótica

La palabra «robot» procede la palabra checa  «robota»  que significa «trabajo duro». Podemos clasificar los robots en diferentes tipos: 1. No mecánicos: La salida es una acción no mecánica como mostrar una información o mantener una conversación con el usuario humano. Entre ellos destacan los robots cuya interfaz es un sistema conversacional ya sea escrito o hablado («chatbots») con grandes aplicaciones actualmente como asistentes virtuales. 2. Mecánicos: Utilizados generalmente en la industria. Hay de varios tipos:                 Androides: Apariencia humanoide. Zoomórficos: Apariencia animal. Móviles o rodantes: Transporte de cosas o personal. Poliarticulados: Industriales. La apariencia humana de los robots ha dado lugar a la denominada «teoría del valle inquietante». «Lo inquietante» tiene su origen como concepto, en el año 1906 por Ernst Jentsch y se explica como una sensación perturbadora ante algo que nos es y no familiar al mismo tiempo. Una situación u objeto que se parece