martes, 3 de mayo de 2011

ENSAYO COMPUTACION GRAFICA

Computación Gráfica
La computación gráfica  hoy en día en la actualidad, los gráficos por computador se emplean en una gran variedad de aplicaciones, como en interfaces gráficas de usuario, tipografía digital, paseos arquitectónicos virtuales, aplicaciones médicas y juegos de vídeo, entre otras. La computación gráfica comprende una gran variedad de técnicas que pueden ser agrupadas de acuerdo al número de dimensiones que se empleen en la representación del modelo geométrico a visualizar, en 2D y 3D.
El desarrollo de las interfaces gráficas de usuario que actualmente son una parte indispensable en cualquier sistema de cómputo.

 Computación gráfica 2D
La computación gráfica 2D corresponde al conjunto de técnicas que tienen como objeto la generación de una imagen digital a partir de modelos geométricos bidimensionales. Estas técnicas son principalmente empleadas en interfaces gráficas de usuario (ver siguiente Sección) y en aplicaciones desarrolladas a partir de tecnologías de impresión y dibujo, como tipografía, cartografía y dibujo técnico, entre otras. El origen de las mismas se remonta a la década de los 50's en la que aparecieron dispositivos con soporte para gráficos vectoriales.

Los gráficos vectoriales y de rasterización conforman las principales categorías de la computación gráfica 2D. Aquellos emplean primitivas geométricas basadas en ecuaciones matemáticas (e.g., puntos, líneas, curvas y polígonos) para representar las imágenes; mientras que en éstos, la imagen se representa mediante una matriz rectangular de píxeles que puede ser desplegable en un dispositivo de salida cualquiera.
Computación gráfica 3D
La computación gráfica 3D trata acerca de la síntesis de una imagen bidimensional a partir de un modelo geométrico tridimensional. De acuerdo con la complejidad de los cálculos empleados en la generación de las imágenes, las técnicas se clasifican en prerendering y real-time rendering. Aquellas son típicamente empleadas en la creación de animaciones de tipo foto-realista; mientras que éstas se emplean en aplicaciones que requieren interactividad. En el último caso, es necesario el uso de un procesador de gráficos dedicado (en la actualidad, ampliamente disponibles para el usuario común).
Técnicas de rendering
De acuerdo al modo en el que la luz se modele, las técnicas de rendering se clasifican en las siguientes categorías:
Rasterización: Este método consiste en iterar en cada cuadro a través de todas las primitivas geométricas que conforman la escena para determinar, a partir del punto de vista del usuario, cuales píxeles de la imagen se ven afectados. Por ser el método de rendering más ampliamente empleado por la mayoría de GPUs en la actualidad, este método es el más eficiente y por ello es el predilecto cuando la aplicación requiere interactividad.
Ray-tracing: El ray tracing es una extensión del ray-casting. Mientras que en el ray-casting el color de cada píxel de la imagen se calcula como el color del primer objeto intersecado por un rayo imaginario que se lanza desde el punto de vista, al píxel en cuestión; en el ray-tracing se emplea esta técnica de modo recursivo, i.e., empleando rayos de refracción y reflexión a partir del punto en la superficie del objeto intersecado por el rayo inicial. Usualmente este cómputo se realiza promediando un número aleatorio de muestras (rayos de luz emanados de la superficie de los objetos que intersecan el punto de vista) mediante técnicas de Monte Carlo.
Métodos de iluminación global: En estas técnicas se emplea la teoría de elementos finitos para simular el modo en que las superficies iluminadas actúan a su vez como fuentes de iluminación de otras superficies, produciendo una efecto más realista en el que el ambiente de la escena parece ser mejor captado.
Gracias al gran avance que recientemente ha tenido la tecnología presente en las GPUs, en la actualidad han surgido aplicaciones gráficas mediante las cuales es posible interactuar en tiempo real con una escena sintetizada mediante algún modelo de iluminación complejo, como el ray-tracing. Lo anterior es particularmente posible gracias al advenimiento de los shaders que permiten combinar algunos modelos de iluminación complejos, con los algoritmos básicos de rasterización.
A partir de 1970 se comenzaron a introducir los gráficos por computadora en el mundo de la televisión.
Desarrollo sistemas complejos de hardware y software como ANIMAC, SCANIMATE y CAESAR. Todos esos sistemas funcionaban escaneando una imagen existente, para después manipularla, aplastándola, estirándola, girándola y haciéndola volar por la pantalla, etc.
Uno de los más importantes avances para los gráficos por computadora apareció en escena en 1971, el microprocesador. Usando tecnología de circuitos integrados desarrollada en 1959, la electrónica de un procesador de computadora fue reducida a un único chip.
El juego se basaba en aquel creado en 1958 por William Higinbotham, quien programó un osciloscopio para que simulara una partida de ping-pong que permitía la interacción entre dos jugadores. El objetivo era manejar dos líneas móviles que interceptaban la pelota representada por un punto móvil en la pantalla circular del osciloscopio. El juego fue llamado Tenis fortwo.
Pong poseía una menor calidad gráfica que el juego en el que se inspiraba, pero la clave de su éxito radicaba en la ventaja de poder producirse en masa a un precio relativamente económico convirtiéndose en uno de los videojuegos mas vendidos de la historia.

Desde su fundación, el laboratorio de Cornell ha articulado y refinado un sistema para investigación en iluminación global incorporando modelos de reflexión, simulación de transporte de energía y algoritmos de despliegue visual.


Renderman Interface Specification, o RISpec, es un API desarrollada por los estudios de animación Pixarpara describir escenas tridimensionales y convertirlas en imágenes digitales foto realistas.
el software Parallaxpara copiar porciones del escenario de fondo
La GeForce (nombre código nv10) fue la primera tarjeta 3D que poseía un motor de hardware llamado Transform&Lighting.
Para la película Spider-Man3 de 2007 Sony PicturesImageworks(SPI) usó el software Autodesk Maya para la animación en 3D, el modelado, texturizado y combinación de movimientos de los personajes y efectos visuales aproximadamente en 80% de las tomas realizadas por el estudio. Se usó el sistema de efectos visuales Autodesk Flamepara hacer cambios en el rostro de los personajes y para integrar tomas reales de ellos en ambientes generados totalmente por computadora. El uso de ese software también fue decisivo para crear la secuencia extremadamente compleja de Sandman y la sustancia simbiótica de Venom.
La iluminación de los pixeles apropiados requiere una unidad de presentación que consta de dos partes: memoria de video y controlador de video.

El controlador de video lee de la memoria de video el color del pixel a dibujar y envía la información a un convertidor digital analógico (DAC) en donde por medio de las componentes de color RGB se determina la intensidad del pixel.

Dispositivos de entrada
• Teclado: un dispositivo para introducir texto y caracteres presionando botones (referidos como teclas), similar a una máquina de escribir. La configuración más común de teclas en la QWERTY.
• Ratón: un dispositivo apuntador que detecta el movimiento bidimensional relativo a su superficie de contacto.
• Trackball: un dispositivo apuntador que consiste en una esfera expuesta colocada en un armazón que detecta la rotación sobre dos ejes.
• Joystick: un dispositivo general de control que consta de dos o tres ejes que transmiten el ángulo de su movimiento en dos o tres dimensiones a la computadora.
Gamepad: un control de juegos general que posee botones y un control de dirección que se manipulan con los dedos.
Scanner: dispositivo que analiza imágenes, texto impreso o escritura a mano y los convierte en imágenes digitales.
Cámara Web: una cámara de video de baja resolución usada para proveer una entrada visual que puede ser fácilmente transferida por Internet.
Lápiz óptico: un dispositivo con fotocelda que, cuando se activa oprimiendo la punta contra la pantalla, devuelve a la computadora la posición del pixel iluminado en ese campo visual.
Guante de datos: un dispositivo con sensores que detectan los movimientos de la mano y de los dedos para poner en posición.

Dispositivos de salida

Impresora: un dispositivo periférico que produce una copia impresa de un documento.
Monitor: dispositivo que despliega una señal de video, similar a una televisión, para proporcionar información y una interfaz con la cual interactuar.
Altavoces: dispositivo que convierte señales de audios analógicos en vibraciones de aire equivalentes para hacer el sonido audible.
Una tarjeta gráfica o tarjeta de video, es una tarjeta de expansión para una computadora encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor.
SOFTWARE GRAFICO
Una representación gráfica consisten en un conjunto de pixeles que se obtiene a partir de una idea de más alto nivel; como puede ser la descripción de la gráfica en términos de líneas, arcos, colores etc. o incluso en términos de objetos tridimensionales, puntos de vista e iluminación.

Las siguientes APIs para gráficos por computadora son particularmente populares:
• OpenGL
• Direct3D (subconjunto de DirectX para producir gráficos interactivos en 3D)
OpenGL
OpenGL (Open Graphics Library) es una API portable para desarrollar aplicaciones gráficas interactivas 2D y 3D. Fue desarrollada por SiliconGraphics y actualmente es un estándar abierto controlado por diversas compañías. Su mayor ventaja es su portabilidad, es decir que puede ser usada en una gran cantidad de plataformas de hardware, desde dispositivos móviles hasta súper computadoras, además de distintos sistemas operativos y tarjetas aceleradoras 3D. Es relativamente fácil de usar.
Algunas de las operaciones que se pueden realizar con OpenGL son las siguientes:
• Modelado de figuras a partir de primitivas básicas, mediante la creación de descripciones geométricas de los objetos (puntos, líneas, polígonos y mapas de bits).
• Situar los objetos en el espacio de una escena tridimensional y seleccionar el punto de vista desde el que se quiere observar.
• Determinar el color de los objetos. El color puede asignarse a cada pixel, o calcularse a partir de las condiciones de iluminación o asignarse por medio de una textura mapeada sobre los objetos.

Direct3D
Direct3D es parte de DirectX, una API propiedad de Microsoft disponible tanto en los sistemas Windows de 32 y 64 bits, como para sus consolas Xbox y Xbox 360 para la programación de gráficos 3D.
El objetivo de esta API es facilitar el manejo y trazado de entidades gráficas elementales, como líneas, polígonos y texturas, en cualquier aplicación que despliegue gráfico en 3D, así como efectuar de forma transparente transformaciones geométricas sobre dichas entidades.
El principal competidor de Direct3D es OpenGL, desarrollado por SiliconGraphics Inc.

Pablo Riquero

jueves, 4 de noviembre de 2010

TEMAS:

Introducción

Definición

Características de los Sistemas Expertos

Arquitectura de un Sistema Expertos

Estrategias del Motor de Inferencia

Historia de la representación del Conocimiento

Técnicas de adquisición del Conocimiento

Modelado del Conocimiento

Verificación de la Base de Conocimiento

Criterios de evaluación de los Sistemas Expertos

Metodología para la construcción de los Sistemas Expertos

Conclusión

Recomendaciones

Resumen

Bibliografía

Anexos

Anexos1._ Glosario de términos de la Inteligencia Artificial

Anexos2._ Glosario de términos de Sistemas Expertos


 

INTRODUCCIÓN

Se considera a alguien un experto en un problema cuando este individuo tiene conocimiento especializado sobre dicho problema. En el área de los ( SE) a este tipo de conocimiento se le llama conocimiento sobre el dominio. La palabra dominio se usa para enfatizar que el conocimiento pertenece a un problema específico.

Antes de la aparición del ordenador, el hombre ya se preguntaba si se le arrebataría el privilegio de razonar y pensar. En la actualidad existe un campo dentro de la inteligencia artificial al que se le atribuye esa facultad: el de los sistemas expertos (SE). Estos sistemas también son conocidos como Sistemas Basados en Conocimiento, los cuales permiten la creación de máquinas que razonan como el hombre, restringiéndose a un espacio de conocimientos limitado. En teoría pueden razonar siguiendo los pasos que seguiría un experto humano (médico, analista, empresario, etc.) para resolver un problema concreto. Este tipo de modelos de conocimiento por ordenador ofrece un extenso campo de posibilidades en resolución de problemas y en aprendizaje. Su uso se extenderá ampliamente en el futuro, debido a su importante impacto sobre los negocios y la industria.

DEFINICIONES DE LOS SISTEMAS EXPERTOS

Es un software que imita el comportamiento de un experto humano en la solución de un problema. Pueden almacenar conocimientos de expertos para un campo determinado y solucionar un problema mediante deducción
lógica de conclusiones.

Son SE aquellos programas que se realizan haciendo explicito el conocimiento en ellos, que tienen información específica de un dominio concreto y que realizan una tarea relativa a este dominio.

Programas que manipulan conocimiento codificado para resolver problemas en un dominio especializado en un dominio que generalmente requiere de experiencia humana.

Programas que contienen tanto conocimiento declarativo (hechos a cerca de objetos, eventos y/o situaciones) como conocimiento de control (información a cerca de los cursos de una acción), para emular el proceso de razonamiento de los expertos humanos en un dominio en particular y/o área de experiencia.

Software que incorpora conocimiento de experto sobre un dominio de aplicación dado, de manera que es capaz de resolver problemas de relativa dificultad y apoyar la toma de decisiones inteligentes en base a un proceso de razonamiento simbólico.


 


 


 


 

ARQUITECTURA BÁSICA DE LOS SISTEMAS EXPERTOS

Base de conocimientos. Es la parte del sistema experto que contiene el conocimiento sobre el dominio. hay que obtener el conocimiento del experto y codificarlo en la base de conocimientos. Una forma clásica de representar el conocimiento en un sistema experto son lar reglas. Una regla es una estructura condicional que relaciona lógicamente la información contenida en la parte del antecedente con otra información contenida en la parte del consecuente.

Base de hechos (Memoria de trabajo). Contiene los hechos sobre un problema que se han descubierto durante una consulta. Durante una consulta con el sistema experto, el usuario introduce la información del problema actual en la base de hechos. El sistema empareja esta información con el conocimiento disponible en la base de conocimientos para deducir nuevos hechos.

Motor de inferencia. El sistema experto modela el proceso de razonamiento humano con un módulo conocido como el motor de inferencia. Dicho motor de inferencia trabaja con la información contenida en la base de conocimientos y la base de hechos para deducir nuevos hechos. Contrasta los hechos particulares de la base de hechos con el conocimiento contenido en la base de conocimientos para obtener conclusiones acerca del problema.

Subsistema de explicación. Una característica de los sistemas expertos es su habilidad para explicar su razonamiento. Usando el módulo del subsistema de explicación, un sistema experto puede proporcionar una explicación al usuario de por qué está haciendo una pregunta y cómo ha llegado a una conclusión. Este módulo proporciona beneficios tanto al diseñador del sistema como al usuario. El diseñador puede usarlo para detectar errores y el usuario se beneficia de la transparencia del sistema.

Interfaz de usuario. La interacción entre un sistema experto y un usuario se realiza en lenguaje natural. También es altamente interactiva y sigue el patrón de la conversación entre seres humanos. Para conducir este proceso de manera aceptable para el usuario es especialmente importante el diseñodel interfaz de usuario. Un requerimiento básico del interfaz es la habilidad de hacer preguntas. Para obtener información fiable del usuario hay que poner especial cuidado en el diseño de las cuestiones. Esto puede requerir diseñar el interfaz usando menús o gráficos.


 


 


 


 


 

El motor de inferencias en los sistemas expertos


El Motor de Inferencias (MI) es un programa de control cuya función es seleccionar las reglas posibles a satisfacer el problema, para ello se vale de ciertas estrategias de control sistemáticas o de estrategias heurísticas.

Estrategias de control sistemático:
Encadenamiento hacia adelante o hacia atrás.
Búsqueda en profundidad o a lo ancho.
Régimen de control irrevocable o por tentativa.


Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático es un programa de control hecho de forma "algorítmica" que aplica una heurística de propósito general cuya función es una exploración exhaustiva y metódica de la base de conocimientos.


Estos mecanismos de control son muy generales y a veces resultan ineficientes ya que siguen una secuencia de búsqueda demasiado rígida, para resolver esto se idearon las estrategias de control heurísticas.


Las estrategias de control heurísticas son programas de control que utilizan una heurística más específica y su función es una selección más restringida orientada por las necesidades del problema. Estas estrategias actúan sobre el control sistemático y en ciertos casos toma el control y dirige la búsqueda hacia ciertos criterios rompiendo así el control sistemático, una vez logrado su objetivo le devuelve el control nuevamente al sistemático.

Estrategias de control heurísticas:
Orden de las reglas.
Mayor credibilidad en las reglas.
Menor número de cláusulas no instanciadas.
Mayor número de conclusiones en las reglas.


Podemos decir que un sistema experto, es un sistema informático que utiliza técnicas apropiadas para la representación de conocimientos y la manipulación de este, de forma tal que exhiba el comportamiento de un avezado especialista en un determinado dominio del saber.

Historia de la representación del conocimiento

En informática, particularmente inteligencia artificial, un número de representaciones se han ideado para estructurar la información.

El KR es el más de uso general referir a las representaciones previstas para procesar por moderno computadoras, y particularmente, para las representaciones que consisten en los objetos explícitos (la clase de todos los elefantes, o Clyde cierto individuo), y de aserciones o de demandas sobre ellas ("Clyde es un elefante", o "todos los elefantes son grises"). La representación de conocimiento en tal forma explícita permite a las computadoras dibujar conclusiones del conocimiento almacenado ya ("Clyde es gris").

Muchos métodos del KR fueron intentados en los años 70 y los años 80 tempranos, por ejemplo heurístico question-answering, redes de los nervios, el probar del teorema, y sistemas expertos, con éxito que varía. Diagnosis médica (e.g., Mycin) era un área de aplicación importante, al igual que juegos por ejemplo ajedrez.

En la representación formal del conocimiento de la computadora de los años 80 las idiomas y los sistemas se presentaron. Los proyectos importantes procuraron codificar cuerpos anchos del conocimiento general; por ejemplo "Cycel "proyecto pasó a través de una enciclopedia grande, codificando no la información sí mismo, pero la información que un lector necesitaría para entender la enciclopedia: física ingenua; nociones del tiempo, causalidad, motivación; objetos corrientes y clases de objetos. El proyecto de Cyc se maneja cerca Cycorp, Inc.; mucho pero no todos los datos está libremente disponibles ahora.

A través de tal trabajo, la dificultad del KR vino ser apreciada mejor. En lingüística de cómputo, mientras tanto, bases de datos mucho más grandes de la información de la lengua eran construidas, y éstas, junto con grandes aumentos en velocidad y capacidad de la computadora, hicieron un KR más profundo más factible.

Varios lenguajes de programación se han convertido que se orienta al KR. Prólogo convertido en 1972 (véase http://www.aaai.org/AITopics/bbhist.html#mod), pero popularizado mucho más adelante, representa asuntos y lógica básica, y puede derivar conclusiones de premisas sabidas. KL-ONE (los años 80) es la representación más específicamente dirigida sí mismo del conocimiento.

En el mundo electrónico del documento, las idiomas eran desarrolladas para representar la estructura de documentos más explícitamente, por ejemplo SGML y más adelante XML. Éstos facilitados recuperación de datos y explotación minera de los datos esfuerzos, que estos últimos años han comenzado a relacionarse con el KR. La comunidad del Web ahora está interesada especialmente en Web semántico, en tales como que XML-basó idiomas del KR RDF, Mapas del asunto, Inglés de Gellish y otros se pueden utilizar para poner la información del KR a disposición los sistemas del Web.

MÉTODOS PARA LA ADQUISICIÓN DEL CONOCIMIENTO

Es necesario distinguir el aprendizaje empírico del sistemático y racional. El primero tiene un carácter espontáneo, cotidiano, particular, relativo y se supone como fuente el uso de los sentidos; el segundo se basa en un procedimiento cuya elaboración es más profunda, incluye a la investigación e incorpora implementación el equipo técnico y especializado.

Es posible considerar al método como una serie de pasos a seguir para lograr el fin, a esto lo podemos remitir a una especie de construcción metodológica en la cual se incluyen procedimientos, técnicas, modelos y teorías que se aplican sistemáticamente durante el desarrollo de una investigación.

Algunos de los métodos más comunes son: el método de educativo, el método inductivo, el método analógico, el método analítico y el método sintético.


 


 

Método deductivo

Es definido como el método que procede de lo universal a lo particular. Por ejemplo, la Lógica y la Matemática donde a través de la abstracción sistemática racional y la aplicación de leyes establecidas se llega a la construcción de postulados generales que se consideran científicamente válidos a priori, es decir, independientemente de la experiencia, de su aplicación concreta, empírica e inmediata.

Es preciso informar que el uso incorrecto de la deducción puede conducir a que se incurra en conclusiones falsas, aún cuando el razonamiento sea el adecuado.

El siguiente es un ejemplo del sistema educativo correcto y del sistema de educativo incorrecto, nótese que el incorrecto está basado en una teoría mal fundamentada.

Método analógico


 

Según Walter Brugger dice " para caracterizar más exactamente el concepto de análogo, deben considerarse los dos tipos.

Fundamentales de analogía, de atribución y proporcionalidad"

En la analogía de atribución se cuenta con un concepto fundamental y otro secundario, uno es considerado como necesario y el otro como contingente, donde el segundo es análogo al primero.

En la analogía de proporcionalidad se conciben igualmente dos conceptos, con cierta discrepancia uno del otro; ambos conceptos difieren de la naturaleza o significado.

Si se considera a la analogía como sinónimo de comparación, el método analógico o comparativo permitirá establecer cierta relación entre dos objetos de aprendizaje o dos conceptos, de modo que partir del conocimiento del primero se infiera el segundo, ya sea por su atribución o por su proporción

Para López Ruiz, el método analítico " consiste en la operación entre elementos similares muy diferentes, para después sacar una conclusión lógica"

Razonamiento deductivo y correcto

  1. Todo hombre es mortal
  2. Sócrates es hombre
  3. Por lo tanto: Sócrates es mortal


     

Razonamiento deductivo e incorrecto

4. Todos los gastos son pagos (falso)
5. Tulús es un gato
6. Por lo tanto: Tulús es pardo

El método analítico

Del término análisis significa "separación del todo en sus partes ". Cada parte merece un estudio por separado para la comprensión del todo (objeto o concepto)

Este tipo de análisis se puede ver al momento le identifica por separado los componentes de un libro:

Análisis interno. Personajes primarios, secundarios y ambientales, trama, clímax, desenlace y moraleja.

Análisis externo. Autor, título, editorial, lugar y año de publicación.

Método sintético

Este método es contrario a de análisis, sin embargo puede considerarse como complementario.

Síntesis significa la reunión de las partes de un todo una vez que éstas han sido analizadas y ordenadas.

Un ejemplo de síntesis se ven la Química al utilizar dos elementos distintos para formular una molécula única tal es el ejemplo del H2O (agua) y el CO2 (bióxido de carbono)


 


 


 

Modelos de Administración del Conocimiento

Existen muchos modelos de cómo se puede administrar el conocimiento. Los sistemas basados en compartir el conocimiento no refleja la naturaleza compleja del aprendizaje dentro de una organización.

Según Dixon la transferencia del conocimiento común comienza, con la creación del conocimiento y se añaden los siguientes pasos:

- Encontrar un método para transferir el conocimiento hasta o un grupo o individuo que pueda reutilizarlo.

- Transformar lo que se ha aprendido en una configuración que otros puedan emplear.

- El equipo o la persona que recibe la información debe adaptar el conocimiento para utilizarlo en un contexto peculiar.

- El proceso se repite cuando el equipo que recibe el conocimiento empieza a realizar una nueva tarea.

El manejo del conocimiento llegará a ser una parte integral de cada negocio. El manejo del conocimiento en los procesos relacionados contribuye a la competitividad de una organización.

El conocimiento no representa ningún valor a la organización mientras no sea aplicado. La arquitectura del conocimiento puede ser dividida en 2 componentes: el acceso del conocimiento (web site, portales y bases de datos) todos soportados por un manejador de información y el intercambio de conocimiento que efectúa un rol más interactivo. Estos 2 componentes de la arquitectura del conocimiento están unidos uno a uno por medio de las personas que aplican los valores de cada uno. (Ver figura 2.3)

Fortalecimiento del conocimiento común

Las propuestas de la gestión del conocimiento representan un modelo de gestión que se basa en gran parte en gestionar adecuadamente la información. Es por lo tanto el paso previo, que cualquier organización debería dar antes de tratar de implantar un sistema de administración del conocimiento.

Modelo de administración del conocimiento

La gestión de la información se puede definir como el conjunto de actividades realizadas con el fin de controlar, almacenar y, posteriormente, recuperar adecuadamente la información producida, recibida o retenida por cualquier organización en el desarrollo de sus actividades. En el centro de la gestión de la información se encuentra la gestión de la documentación (la información que queda plasmada en documentos) y que pude ser de tres tipos:

Interna: hace referencia a aquella documentación generada o recibida por la organización en el ejercicio de sus funciones, es decir, son documentos que surgen de la actividad diaria de esa institución. En este grupo, encontramos tanto la documentación típicamente administrativa: contabilidad, correspondencia; como la documentación de gestión: informes, actas de reuniones, procedimientos de trabajo, y la documentación técnica que refleja la propia actividad de la organización.

Externa: además de la documentación producida por la propia organización, ésta y las personas que trabajan en ella necesitan, a menudo, consultar y manejar fuentes de información externas: libros, revistas, Bases de Datos, Internet.

Pública: es aquella documentación que la organización produce de cara al público, para comunicarles hechos, actividades, acontecimientos; por ejemplo, las memorias, los catálogos de productos y servicios, páginas Web.

Los principios del manejo del conocimiento habilitan la creación, consolidación, manejo, conservación y continua actualización del conocimiento a través de sistemas de información.

MODELO ANDERSEN (ARTHUR ANDERSEN, 1999)

Andersen (1999) reconoce la necesidad de acelerar el flujo de la información que tiene valor, desde los individuos a la organización y de vuelta a los individuos, de modo que ellos puedan usarla para crear valor para los clientes.

Desde la perspectiva individual, la responsabilidad personal de compartir y hacer explícito el conocimiento para la organización.

Desde la perspectiva organizacional, la responsabilidad de crear la infraestructura de soporte para que la perspectiva individual sea efectiva, creando los procesos, la cultura, la tecnología y los sistemas que permitan capturar, analizar, sintetizar, aplicar, valorar y distribuir el conocimiento.

Modelo de Administración del Conocimiento de Arthur Andersen

PROCESO DE CREACIÓN DEL CONOCIMIENTO (NONAKA, TAKEUCHI, 1995)

El proceso de creación del conocimiento para Nonaka y Takeuchi (1995) es a través de un modelo de generación de conocimiento mediante dos espirales de contenido epistemológico y ontológico.

Es un proceso de interacción entre conocimiento tácito y explícito que tiene naturaleza dinámica y continua. Se constituye en una espiral permanente de transformación ontológica interna de conocimiento, desarrollada siguiendo 4 fases que podemos ver de forma gráfica en la figura 2.6:

Proceso de conversión del conocimiento en la organización (Nonaka y Takeuchi, 1995)

• La Socialización, es el proceso de adquirir conocimiento tácito a través de compartir experiencias por medio de exposiciones orales, documentos, manuales y tradiciones y que añade el conocimiento novedoso a la base colectiva que posee la organización;

• La Exteriorización, es el proceso de convertir conocimiento tácito en conceptos explícitos que supone hacer tangible mediante el uso de metáforas conocimiento de por sí difícil de comunicar,
integrándolo en la cultura de la organización; es la actividad esencial en la creación del conocimiento;

• La combinación, es el proceso de crear conocimiento explícito al reunir conocimiento explícito proveniente de cierto número de fuentes, mediante el intercambio de conversaciones telefónicas, reuniones, correos, etc., y se puede categorizar, confrontar y clasificar para formas bases de datos para producir conocimiento explícito.

• La Interiorización, es un proceso de incorporación de conocimiento explícito en conocimiento tácito, que analiza las experiencias adquiridas en la puesta en práctica de los nuevos conocimientos y que se incorpora en las bases de conocimiento tácito de los miembros de la organización en la forma de modelos mentales compartidos o prácticas de trabajo

Nonaka y Takeuchi, mencionan que lo expresado por Peter Drucker de la esencia de la dirección es, cómo se puede aplicar de la mejor forma un conocimiento existente para poder crear otro conocimiento nuevo o reciclado, es justificado ya que sus estudios en compañías japonesas respaldan el proceso de creación del conocimiento que ambos Japoneses han sostenido.

KNOWLEDGE MANAGEMENT ASSESSMENT TOOL (KMAT)

El KMAT es un instrumento de evaluación y diagnóstico construido sobre la base del Modelo de Administración del Conocimiento Organizacional desarrollado conjuntamente por Arthur Andersen y APQC.

El modelo propone cuatro facilitadores (liderazgo, cultura, tecnología y medición) que favorecen el proceso de administrar el conocimiento organizacional.

Modelo Knowledge Management Assessment Tool

Liderazgo.- Comprende la estrategia y cómo la organización define su negocio y el uso del conocimiento para reforzar sus competencias críticas.

Cultura.- Refleja cómo la organización enfoca y favorece el aprendizaje y la innovación incluyendo todas aquellas acciones que refuerzan el comportamiento abierto al cambio y al nuevo conocimiento.

Tecnología.- Se analiza cómo la organización equipa a sus miembros para que se puedan comunicar fácilmente y con mayor rapidez.

Medición.- Incluye la medición del capital intelectual y la forma en que se distribuyen los recursos para potenciar el conocimiento que alimenta el crecimiento.

Procesos.- Incluyen los pasos mediante los cuales la empresa identifica las brechas de conocimiento y ayuda a capturar, adoptar y transferir el conocimiento necesario para agregar valor al cliente y potenciar los resultados.


 


 


 

VERIFICACION DE LA BASE DE CONOCIMIENTO

La verificación del conocimiento en un sistema experto involucra 2 componentes:

1. Verificar que la base de conocimientos sea correcta.

2. Verificar que el sistema pueda interpretar y aplicar este conocimiento en forma correcta.

METODOLOGIAS DE DESARROLLO

Al igual que para desarrollar un sistema de información convencional existen varias metodologías de desarrollo como la Ingeniería de la Información, tendencias estructuradas y orientadas a objetos, así existen varias metodologías para desarrollar un sistema experto. Como ya sabemos el área de sistemas expertos es relativamente joven por lo cual no se dispone de una única metodología sino que cada autor propone una de acuerdo a su forma de desarrollo. Sin embargo existen algunas que han tenido éxito mas que otras lo cual ha llevado a su mayor difusión.

    Aquí solo mencionaremos algunas y mostraremos un esquema general de la metodología con la cual trabajaremos nosotros.

Metodología de Buchanan

Metodología de Grover

Metodología de Brule

Metodología de Blanque y García Martínez

Metodología KADS

Ingeniería del Software,….. etc.

Estas son solo algunas encontradas en la bibliografía revisada. Para nuestro caso nosotros trabajaremos con la Metodología de Ingeniería del Conocimiento de Jhon Durkin, de la cual se muestra una breve descripción a continuación:


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


Las ventajas en general de los Sistema Expertos.

Las desventajas en general de los Sistema Expertos.

Limitaciones de los Sistema Expertos.


 


 

CONCLUSIONES


 

#1

Los sistemas expertos son de mucha utilidad ya que permiten tomar decisión de acuerdo a la experiencia humana de algún especialista en determinada área.

Nunca ninguna maquina podrá remplazar la mente humana en cuanto a su creatividad e inteligencia.

#2

Actualmente el duro, difícil y cambiante mercado competitivo se vuelve más complejo por la gran diversidad de información que se ven obligados a almacenar y analizar, razón por la cual las empresas se ven en la necesidad de recurrir a poderosas y/o robustas herramientas o sistemas que les sirvan de soporte a la hora de tomar decisiones.

De esta forma estos inteligentes, precisos y eficientes sistemas son adoptados por más organizaciones, en las cuales se convierten y/o transforman en una importante estrategia de negocio.


 

#3

Gracias a la inteligencia artificial se ha logrado que una máquina sea capaz de desarrollar áreas de conocimiento muy específicas y complicadas, haciendo que la máquina pueda simular procesos que el hombre realiza. Pero cabe destacar que aún no se ha logrado que una máquina piense como un humano, pienso que una limitación es el hecho de que el hombre es irremplazable ya que el ser humano cuenta con una característica propia el cual es el sentido común.

#4

Pero no podemos olvidar que el desarrollo de estas tecnologías no pretenden reemplazar al ser humano sino que tratan de mejorar el estilo de vida del ser humano, ya que recordemos que, por lo menos los robots hacen que el trabajo pesado sea mas facil de realizar, y que una máquina no se enferma, ni protestas, ni se cansa y esto puede elevar su utilidad. En fin esperemos que estas tecnologías no se nos vaya de las manos, y que no nos perjudique, sino que nos ayude.


 

RECOMENDACIONES


 

El desarrollo es complejo puede ser difícil, costoso y requerir de tiempo, por lo tanto, es importante asegurarse de que los posibles beneficios valen el esfuerzo y que las diversas características del SE equilibren, en términos de costo, control y complejidad.

Proporciona un alto potencial de rendimiento o reduce el riesgo.

Puede capturar y conservar conocimientos humanos irremplazables.

Puede desarrollar un sistema más consistente que los expertos humanos.

Puede proporcionar los conocimientos necesarios en varias ubicaciones al mismo tiempo o en un ambiente hostil peligroso para la salud humana.

Puede proporcionar conocimientos costosos y poco comunes.

Puede proporcionar los conocimientos necesarios para la capacitación y el desarrollo con el propósito de compartir los conocimientos y la experiencia de expertos humanos con un gran número de personas.


 

RESUMEN

Un Sistema Experto se puede definir como un sistema computacional interactivo que permite la creación de bases de conocimiento, las cuales una vez cargadas responden a preguntas, despejan dudas y sugieren cursos de acción emulando/simulando el proceso de razonamiento de un experto para resolver problemas en un área específica del conocimiento humano. De esta definición se desprenden las dos habilidades fundamentales que poseen los Sistemas Expertos:  

  • Habilidad de aprendizaje.
  • Habilidad para simular el proceso de razonamiento humano.

La habilidad de aprendizaje requiere la interacción de un experto en alguna rama específica del saber y un ingeniero de conocimiento, que se encarga de traducir este conocimiento del experto a reglas heurísticas para formar la base de conocimiento.

La habilidad para imitar el razonamiento que posee el Sistemas Experto se desprende de " caminar " a lo largo de las reglas heurísticas introducidas o enseñadas al sistema por un experto, a través del proceso de aprendizaje durante la carga o generación de las bases del


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 

ANEXOS 1

GLOSARIO DE TERMINOS DE INTELIGENCIA ARTIFICIAL


 

BASES DE DATOS ABIERTAS. Permiten que los usuarios (estudiantes y/o profesores) modifiquen fácilmente las bases de datos de contenidos y puedan crear otras complementarias.


 

KBS (KonowledgeBased System): Los sistemas basados en conocimientos, son un método popularizado con los sistemas expertos que usa reglas IFTHEN y FRAMES para incluir la experticia en una base de conocimientos. Existe una maquina de inferencia que controla como las reglas son usadas durante el proceso de solución del problema.


 

Multimedia: Es la presentación de la información en una computadora usando audio, vídeo, textos, animación y gráficos.

Sistemas basados en procedimientos: Son técnicas de programación orientadas a objetos que permiten el enlace de las características de los objetos en forma de código. Cuando un mensaje es recibido por el código, sus características son ejecutadas.

 
 

Regla: Una técnica de representación para la solución de problemas humanos y razonamiento heurístico usando la forma IF THEM.

 
 

Realidad virtual: Proceso que usa computadoras para simular la realidad del mundo en 3D: oír, ver y tocar.

Inteligencia artificial._ Es la simulación de los procesos de la inteligencia humana por máquinas, especialmente sistemas de ordenadores. Estos procesos incluyen el aprendizaje (la adquisición de información y reglas para usarla), el razonamiento (uso de las reglas para llegar a conclusiones definitivas o aproximadas) y autocorrección. Las aplicaciones específicas de la IA incluyen los sistemas expertos, el reconocimiento de voz y el reconocimiento de imágenes.


 


 


 


 


 

ANEXOS 2

GLOSARIO DE TÉRMINOS DE SISTEMAS EXPERTOS


 

Cerebro._ Es la parte física de un sistema inteligente (IS) donde funciona la mente.

Base de conocimientos (BC): Contiene conocimiento modelado extraído del diálogo con un experto.

Base de hechos (Memoria de trabajo): contiene los hechos sobre un problema que se ha descubierto durante el análisis.

Motor de inferencia: Modela el proceso de razonamiento humano.

Módulos de justificación: Explica el razonamiento utilizado por el sistema para llegar a una determinada conclusión.


 

Interfaz de usuario: es la interacción entre el SE y el usuario, y se realiza mediante el lenguaje natural.


 

Diseño._ Diseño es el proceso de especificar una descripción de un artefacto que satisface varias características desde un número de fuentes de conocimiento.


 


 


 


 


 


 


 


 


 


 


 


 

Bibliografía


 

http://www.monografias.com/trabajos16/sistemas-expertos/sistemas-expertos.shtml


 

http://www.monografias.com/trabajos26/sistemas-expertos/sistemas-expertos.shtml#cuando


 

http://html.rincondelvago.com/sistemas-expertos.html

http://biblioteca.universia.net/html_bura/ficha/params/id/35389374.html


 

http://oa.upm.es/1057/

http://www.cs.cinvestav.mx/PaginaAntigua/SC/publica/chapa/intro_lm/node45.html