domingo, 29 de noviembre de 2015

RESOLVER PROBLEMAS MEDIANTE BÚSQUEDA

INTRODUCCIÓN 

Las estrategias de búsqueda que puede utilizar una agente para encontrar la solución a un problema pueden ser informadas o no informadas, cada una de estas define un estado inicial (primer estado en el que se encuentra el agente), una función sucesor (generada a partir del estado inicial), un test objetivo (determina se los estados son objetivos, es decir que conducen a la solución) y costo del camino (cuanto toma llegar a la solución).
Las búsquedas informadas contienen información adicional del problema más allá de su definición, al contrario de las búsquedas no informadas donde el agente no cuenta con información adicional del problema que busca resolver, es decir no tiene una base de conocimiento. La característica principal de este tipo de búsqueda es que genera estados posibles en base a un estado inicial y determina si dentro de la secuencia de estado existen estados objetivos (estados que conducen a la solución).
Existen diferentes tipos de búsquedas no informadas, entre ella tenemos: primero en anchura, primero en profundidad, profundidad limitada entre otras, a continuación se habla sobre las características de estas búsquedas y su funcionamiento.
MARCO TEÓRICO 
AGENTES RESUELVES PROBLEMAS 
La idea es ver como un agente puede encontrar una secuencia de acciones que alcance sus objetivos, cuando ninguna acción simple lo hará.
Los agentes resolventes-problemas deciden que hacer para encontrar secuencias de acciones que conduzcan a los estados deseables. Los agentes inteligentes deben maximizar su medida de rendimiento, esto se simplifica en: Elegir un objetivo y tratar de satisfacerlo. Para ello. Se mira el por qué y cómo se puede hacerlo.
Pasos para solucionar un problema


Estrategias de búsqueda no informada

El término significa que ellas no tienen información adicional acerca de los estados más allá de la que proporciona la definición del problema. Todo lo que ellas pueden hacer es generar los sucesores y distinguir entre un estado objetivo de uno que no lo es. Existen seis tipos de búsquedas no informadas que se detallan a continuación:
1

Búsqueda primero en anchura

La búsqueda primero en anchura es una estrategia sencilla en la que se expande primero el nodo raíz, a continuación se expanden todos los sucesores del nodo raíz, después sus sucesores, etc. En general, se expanden todos los nodos a una profundidad en el árbol de búsqueda antes de expandir cualquier nodo del próximo nivel.
2Busqueda de costo uniforme
La búsqueda primero en anchura es óptima cuando todos los costos son iguales, porque siempre expande el nodo no expandido más superficial. Con una extensión sencilla, podemos encontrar un algoritmo que es óptimo con cualquier función costo. En vez de expandir el nodo más superficial, la búsqueda de costo uniforme expande el nodo n con el camino de costo más pequeño. Notemos que si todos los costos son iguales, es idéntico a la búsqueda primero en anchura.

Búsqueda primero en profundidad

La búsqueda primero en profundidad siempre expande el nodo más profundo en la frontera actual del árbol de búsqueda. La búsqueda procede inmediatamente al nivel más profundo del árbol de búsqueda, donde los nodos no tienen ningún sucesor. Cuando esos nodos se expanden, son quitados de la frontera, así entonces la búsqueda «retrocede» al siguiente nodo más superficial que todavía tenga sucesores inexplorados.
3

Búsqueda de profundidad limitada

Se puede aliviar el problema de árboles ilimitados aplicando la búsqueda primero en profundidad con un límite de profundidad L predeterminado. Es decir, los nodos a profundidad L se tratan como si no tuvieran ningún sucesor. A esta aproximación se le llama búsqueda de profundidad imitada El límite de profundidad resuelve el problema del camino infinito. Lamentablemente, también introduce una fuente adicional de incompletitud si escogemos L< d, es decir, el objetivo está fuera del límite de profundidad.
Búsqueda primero en profundidad con profundidad iterativa
La búsqueda con profundidad iterativa (o búsqueda primero en profundidad con profundidad Iterativa) es una estrategia general, usada a menudo en combinación con la búsqueda primero en profundidad, la cual encuentra el mejor límite de profundidad. Esto se hace aumentando gradualmente el límite (primero 0, después 1, después 2, etcétera) hasta que encontramos un objetivo. Esto ocurrirá cuando el límite de profundidad alcanza d (profundidad del nodo objetivo).

Búsqueda bidireccional

La idea de la búsqueda bidireccional es ejecutar dos búsquedas simultáneas: una hacia delante desde el estado inicial y la otra hacia atrás desde el objetivo, parando cuando las dos búsquedas se encuentren en el centro.
CONCLUSIONES 
La búsqueda primero en profundidad expande el nodo izquierdo y todos sus nodos siguientes hasta encontrar la solución, si encuentra un estado no objetivo regresa y continua con el nodo de al lado. La búsqueda con profundidad limitada es una mejora de la de profundidad sola que esta se establece un límite de profundidad, ya que el agente podría expandir todos los nodos del lado izquierdo, irse al infinito y no encontrar la solución. Al establecer este límite también surge el problema de que la solución este en un nivel al que no se puede llegar es porque esto que la búsqueda con profundidad iterativa aumenta los nodos según los estados objetivos.
BIBLIOGRÁFICAS 
Rihawi, I .2009.  Búsqueda de costo uniforme .Consultado 29 de Nov. 2015 .(En línea).Formato HTML. Disponible en : https://poiritem.wordpress.com/2009/12/06/6-5-1-busqueda-no-informada-algoritmo-de-coste-uniforme/
Russell, S y Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. 2 ed. España. Pearson Education.
Robin,  D.2010.  Búsqueda Bidireccional .Consultado 29 de Nov. 2015.(En línea). Formato HTML. Disponible en : http://intelligence.worldofcomputing.net/ai-search/bidirectional-search.html#.VKgbgiuG8po

ESTRUCTURA DE LOS AGENTES 

INTRODUCCIÓN 

Un agente es una entidad capaz de percibir su entorno y actuar según su función de forma racional,  es decir actuar en función de lo correcto; para esto el agente debe conocer su entorno y poder percibirlo,  además de los medios en que se desenvuelve.
 Aunque el término agente racional o agentes inteligentes se refiere a máquinas virtuales en la IA, un agente inteligente puede ser también un humano, un animal y además un software; ya que en las Ciencias de la Computación un agente inteligente se refiere a un software  que tiene algo de inteligencia, independientemente de si no es un agente racional por definición de Russell y Norvig 2008. Por ejemplo, programas autónomos utilizados para asistencia de un operador o de minería de datos (a veces denominado robots) son también llamados “agentes inteligentes”.
MARCO TEÓRICO 
ESTRUCTURA DE LOS AGENTES
Todos los agentes tienen una estructura básica o mínima o esquelética igual, y esta debe estar acorde con la función que realiza el agente.
Resultado de imagen de ESTRUCTURA DE LOS AGENTES INTELIGENCIA ARTIFICIAL
En general, la arquitectura hace que las percepciones de los sensores estén disponibles para el programa, ejecuta los programas, y se encarga de que los actuadores pongan en marcha las acciones generadas.
PROGRAMAS DE LOS AGENTES
El programa del agente se realiza en pseudocodigo, para poder representarlo de manera más sencilla, a continuación se muestra el programa del agente basado en una tabla de percepciones ( Russell y Norvig 2008).
AGENTES REACTIVOS SIMPLES
Este es el tipo de agente más sencillo, ya que este actúa en función de las percepciones que está tomando en ese momento ignorando las anteriores. Actuar de esta forma puede sonar no muy útil ya que existen acciones que requieren llevar un historial de las anteriores, por ejemplo un juego de ajedrez, las acciones que se realizan en un determinado momento están presente durante todo el juego porque de estas dependen las nuevas acciones (Rodríguez, W. s/f).
4
 4. AGENTE BASADO EN MODELO
Este agente actúa según sus percepciones pero las relaciona con un modelo  obtenidos anteriormente del mundo real, es decir cuándo va a realizar determinada acción este la relaciona con el estado del modelo, por ejemplo ¿cómo está el mundo ahora?, luego determina si su acción tuvo efecto en el medio (García, A.2012).
5
5. AGENTE BASADO EN OBJETIVO
Este agente también se basa en un modelo del mundo real, la diferencia es que este busca cumplir un objetivo, es decir el agente tiene como propósito llegar a una meta y realiza todas las acciones que sean necesarias para cumplirla, en este punto el agente debe estar preparado por si en determinado momento ocurre un problema que le impida realizar una acción, es decir este debe detenerse y buscar la forma de realizar la acción para llegar a cumplir su objetivo (García, A.2012).
6
6. AGENTE BASADO EN UTILIDAD
Este tipo de agente evalúa si las acciones que está realizando son útiles, es decir tienen un efecto positivo en el medio, para esto determina si la crítica que va a tener luego de realizar una acción es buena o mala (Llata, et all  2008).
7
7. AGENTE QUE APRENDE
Este tipo de agente es el que la IA busca desarrollar, agentes que aprendan de las acciones que están realizando, este es un tipo de agente que tiene un modelo del mundo real y un objetivo a alcanzar, si en el proceso de alcanzar su objetivo este tiene un problema y realiza una acción la cual obtiene una crítica mala, el agente aprende que no debe realizar esta acción otra vez, es decir la gurda en la tabla de reglas que debe cumplir, así de esta forma se podría decir que el agente está aprendiendo (Llata, et all  2008).
8
CONCLUSIONES 
Los agentes basados en modelos toman las percepciones y las analizan según el modelo del mundo que se les definió, estos analizan como se encuentra el mundo antes y después de realizar una acción determinada para saber si están actuando de forma correcta.
El objetivo de la inteligencia artificial es desarrollar agentes que aprendan, es decir que no se queden con el conocimiento que les brindo su desarrollador si no que este pueda adquirir nuevo conocimiento en base a las acciones que esté realizando, es decir que pueda aprender la experiencia
BIBLIOGRÁFICAS 
Llata JR, Sarabia EG, Fernández D, Arce J, Oria J. 2008? Aplicaciones de la inteligencia artificial en sistemas automatizados de producción. Revista Iberoamericana de Inteligencia Artificial 2000. Disponible en: http://redalyc.uaemex.mx
Russell, S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda Edición. Pearson Education. España
Daniel García, Alonso. 2000. ntroducción al estándar FIPA. Universidad Complutense de Madrid.
Rodríguez, W. s/f. INTELIGENCIA ARTIFICIAL Agentes Inteligentes. Postgrado en Computación ULA. (En Línea).   Consultado, 10 de Nov. 2014. Formato PDF. Disponible en:http://poiritem.wordpress.com/2009/11/16/6-4-2-agentes-inteligentes-y-la-naturaleza-de-su-entorno/

LA NATURALEZA DEL ENTORNO 

INTRODUCCIÓN

Como ya sabemos la inteligencia artificial tiene el objetivo de estudiar entidades inteligentes, el estudio de estas entidades debe darse mediante un orden y clasificación de las diferentes entidades racionales que existen o pueden crearse para ser más clara , un agente taxista no tendrá los mismos objetivos que cumplir, ni el mismo entorno, ni los mismos actuadores ni sensores que los que tendría un agente aspiradora y si los tuviera, uno de los dos agentes o ambos tendría un diseño equivocado por lo cual no cumplirá con su función correctamente , es por ésto que la inteligencia artificial, clasifica los tipos de entorno en los que un agente pueda trabajar, de manera que se facilite la implementación de un agente y se escoja bien el diseño del mismo ya que de una correcta clasificación depende también el correcto funcionamiento del agente.

MARCO TEÓRICO 



¿Qué es un entorno de trabajo?

Se podría definir al entorno de trabajo como las condiciones que ocurren dentro del cumplimiento laborar, pero enfocando éste concepto a la Inteligencia Artificial y al diseño de agentes inteligentes o racionales, entorno de trabajo es representado por los problemas, los cuales serán solucionados por los agentes.
Resultado de imagen de ENTORNO DE TRABAJO INTELIGENCIA ARTIFICIAL
Propiedades de los entornos de trabajo

Los entornos de trabajo que pueden tener los agentes varían dependiendo del tipo de agente y la clasificación de estos entornos servirá mucho para diseñar el agente.


Para poder entender mejor los distintos entornos con los que el agente puede ser diseñado la siguiente imagen muestra algunos ejemplos con diferentes agentes.


CONCLUSIONES 

Un agente puede tener varios tipos de entorno así mismo como distintos REAS y de su correcto diseño depende también el correcto funcionamiento del agente y que éste pueda alcanzar los objetivos que en un principio fueron planteados.


BIBLIOGRÁFICAS 

Hermoso, R y Centeno, R. 2010. Inteligencia Artificial. ES. Consultado el 29 de nov. 2015. Formato PDF. Disponible en: www.ia.urjc.es/cms/sites/default/files/userfiles/.../tema01_to_print.pdf

Jiménez,L. Sánchez, L. 2007. Agentes Inteligentes. ES. Consultado el 29 de nov. 2015. Formato PDF. Disponible en: http://www.sanchezcrespo.org/Docencia/IA/IA%20-%20Tema%203B%20-%20Busquedas%20v1.3.pdf

Russell, S y Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. 2 ed. España. Pearson Education. p 34-47.

AGENTES INTELIGENTES 

INTRODUCCIÓN

Como se ha mencionado anteriormente un agente es un ente que actúa en un medio determinado. Para que un agente pueda realizar una acción este tiene que obtener previamente percepciones de cómo se encuentra el medio en el que se desenvuelve, esto lo logra mediante sensores los cuales varían según la función del agente.
El agente realiza las acciones mediante actuadores, los cuales también varían según su función es decir, un agente que juega futbol obtiene la percepción de que el balón está cerca utilizando el sensor de distancia o la vista, al obtener esta secuencia de percepciones este determina que la acción que debe realizar es correr hacia el balón y esto lo lograra mediante el actuador “piernas”, de otra forma no lo podría hacer.
Teniendo claro como actúa un agente, nos centraremos ya en revisar cómo deben estar compuestos en su arquitectura, es decir hardware y software; además de analizar los tipos de agentes que existen, estos se clasifican según la forma en que se desenvuelven o realizan las acciones para lograr su objetivo.
AGENTES INTELIGENTES
De acuerdo a lo comentado anteriormente, la IA puede ser enfocada desde la perspectiva del desarrollo de agentes inteligentes. Esta idea, la cual puede ser considerada como un nuevo reto a corto plazo, está siendo avalada y respaldada por numerosos investigadores en la materia; sirva a modo de ejemplo la siguiente frase: «Los agentes constituyen el próximo avance más significativo en el desarrollo de sistemas y pueden ser considerados como la nueva revolución en el software». Esta frase fue pronunciada por el Dr. Nicholas Jennings en su discurso al recoger el premio al mejor investigador novel del último congreso internacional de Inteligencia Artificial celebrado en Estocolmo (IJCAI’99).
Resultado de imagen para AGENTES INTELIGENTES
¿QUE ES UN AGENTE? 
Al igual que ocurre con la propia definición de la IA, se pueden encontrar propuestas en la literatura un gran número de definiciones del concepto de agente, sin que ninguna de ellas haya sido plenamente aceptada por la comunidad científica, siendo quizás la más simple la de Russell, que considera un agente como una entidad que percibe y actúa sobre un entorno. Basándose en esta definición, se pueden caracterizar distintos agentes de acuerdo a los atributos que posean para resolver un determinado problema. 
Resultado de imagen para AGENTES INTELIGENTES


BUEN COMPORTAMIENTO
EL CONCEPTO DE RACIONALIDAD
Un agente racional es aquel que hace lo correcto; es decir en términos conceptuales que cada elemento de la tabla que define la función del agente se tendría que rellenar correctamente. Por tanto, se necesita determinar una forma de medir el éxito para saber si el agente está realizando su tarea correctamente(Russell, S., Norvig, P. 2008).
s
MEDIDAS DE RENDIMIENTO
Las medidas de rendimiento incluyen los criterios que determinan el éxito en el comportamiento del agente. A continuación se muestra un diagrama de cómo actúa un agente para determinar el nivel de éxito de sus acciones.
Resultado de imagen de medidas de rendimiento inteligencia artificial
 Como se puede observar cuando se sitúa un agente en un medio, éste genera una secuencia de acciones de acuerdo con las percepciones que recibe. Esta secuencia de acciones hace que su hábitat pase por una secuencia de estados. Si la secuencia es la deseada, entonces el agente habrá actuado correctamente (Rodríguez, W. s/f.).
RACIONALIDAD
 La racionalidad en un momento determinado depende de cuatro factores:
Captura
En cada posible secuencia de percepciones, un agente racional deberá emprender aquella acción que supuestamente maximice su medida de rendimiento, basándose en las evidencias aportadas por la secuencia de percepciones y en el conocimiento que el agente mantiene almacenado. (Russell, S., Norvig, P. 2008).
OMNISCIENCIA
Esta es una cualidad otorgada a Dios que se podría decir que es el único ser omnisciente. Los seres humanos no son capaces de conocer todas las cosas ya que dicha facultad excede a la propia condición humana. Por eso, cuando se dice que una persona es omnisciente, se hace referencia a que dispone de saberes de muchas disciplinas o ciencias (Pino, et all . 2010) 
APRENDIZAJE
La definición propuesta implica que el agente racional no sólo recopile información, sino que aprenda lo máximo posible de lo que está percibiendo. La configuración inicial del agente puede reflejar un conocimiento preliminar del entorno, pero a medida que el agente adquiere experiencia éste puede modificarse y aumentar. Hay casos excepcionales en los que se conoce totalmente el entorno a priori. En estos casos, el agente no necesita percibir y aprender; simplemente actúa de forma correcta. Por supuesto, estos agentes son muy frágiles (Russell, S., Norvig, P. 2008).
AUTONOMÍA
Un agente carece de autonomía cuando se apoya más en el conocimiento inicial que le proporciona su diseñador que en sus propias percepciones. Un agente racional debe ser autónomo, debe saber aprender a determinar cómo tiene que compensar el conocimiento incompleto o parcial inicial (García. E. 2009).
CONCLUSIONES
La racionalidad es diferente de la omnisciencia (conocer todo con conocimiento infinito), ya que la racionalidad maximiza el rendimiento esperado porque actúa e función de lo correcto, mientras que la omnisciencia maximiza el resultado real, porque un ser omnisciente conoce que va a suceder exactamente en el mundo real, sin embargo en la realidad la omnisciencia no es posible.
El agente debe aprender lo máximo posible de lo que está percibiendo, y para que este pueda ser considerado autónomo su comportamiento debe estar determinado por su propia experiencia.
BIBLIOGRÁFICAS
Pino, R; Gómez, A; Abajo, N. 2010. Introducción a la Inteligencia Artificial. Sistemas Expertos, Redes Neuronales Artificiales y Computación Evolutiva. (En Línea). ES. Consultado, 29 de Nov. 2015. Disponible en http://books.google.com.ec/book.
Russell, S., Norvig, P. 2008. Inteligencia Artificial Un Enfoque Moderno. Segunda Edición. Pearson Education. España
Rodríguez, W. s/f. INTELIGENCIA ARTIFICIAL Agentes Inteligentes. Postgrado en Computación ULA. (En Línea).   Consultado, 29 de Nov. 2015. Formato PDF. Disponible en:http://poiritem.wordpress.com/2009/11/16/6-4-2-agentes-inteligentes-y-la-naturaleza-de-su-entorno/