Int artificial

8
FUNDAMENTOS DE LOS DIVERSOS COMPONENTES INTELECTUALES DE LA INTELIGENCIA ARTIFICIAL La inteligencia artificial tiene base en ramas científicas y teologícas que fueron importantes para su gran e importante avance en la historia tecnológica. Las diferentes teologías y desarrollos tecnológicos llevaron a grandes creaciones y diseños dentro de la inteligencia artificial. Varias ramas científicas que están dentro o que conviven con la inteligencia artificial son es si: la filosofía, matemáticas, la economía, la neurociencia, la ingeniería computacional y la teoría de control y cibernética; también basadas en estudios tanto sociológicos, socioeconómicos y teológicos como son la psicología y lingüística. FILOSOFIA Dentro de esta rama científica podemos colocar varios personajes como Aristóteles, Thomas Hobbes, Da Vinci, Wilhelm Leibniz fueron los principales en fomentar las teorías filosóficas modernas; el primero fue Aristóteles fue el primero quien desarrollo un conjunto de reglas informales que obtenían ciertas conclusiones de forma mecánica basándose en premisas o valores iniciales establecidos; Thomas Hobbes tenía un razonamiento en el cual el pensamiento y la computación numérica eran casi estrechamente parecidas, según sus palabras “nosotros sumamos y restamos silenciosamente en el pensamiento”, por otro lado Da Vinci, creo una calculadora mecánica utilizada para el cálculo matemático y a partir de esto los científicos buscaban una forma de comprender cuál era la forma de pensar de los humanos. MATEMATICAS Existen varios avances filosóficos que definieron el pensamiento humano y parte esencial de la inteligencia artificial en si dependieron de varias filosofías o teorías de estos mismos filósofos, pero en si para que la inteligencia artificial fuese

Transcript of Int artificial

Page 1: Int artificial

FUNDAMENTOS DE LOS DIVERSOS COMPONENTES INTELECTUALES DE LA INTELIGENCIA ARTIFICIAL

La inteligencia artificial tiene base en ramas científicas y teologícas que fueron importantes para su gran e importante avance en la historia tecnológica. Las diferentes teologías y desarrollos tecnológicos llevaron a grandes creaciones y diseños dentro de la inteligencia artificial. Varias ramas científicas que están dentro o que conviven con la inteligencia artificial son es si: la filosofía, matemáticas, la economía, la neurociencia, la ingeniería computacional y la teoría de control y cibernética; también basadas en estudios tanto sociológicos, socioeconómicos y teológicos como son la psicología y lingüística.

FILOSOFIA

Dentro de esta rama científica podemos colocar varios personajes como Aristóteles, Thomas Hobbes, Da Vinci, Wilhelm Leibniz fueron los principales en fomentar las teorías filosóficas modernas; el primero fue Aristóteles fue el primero quien desarrollo un conjunto de reglas informales que obtenían ciertas conclusiones de forma mecánica basándose en premisas o valores iniciales establecidos; Thomas Hobbes tenía un razonamiento en el cual el pensamiento y la computación numérica eran casi estrechamente parecidas, según sus palabras “nosotros sumamos y restamos silenciosamente en el pensamiento”, por otro lado Da Vinci, creo una calculadora mecánica utilizada para el cálculo matemático y a partir de esto los científicos buscaban una forma de comprender cuál era la forma de pensar de los humanos.

MATEMATICAS

Existen varios avances filosóficos que definieron el pensamiento humano y parte esencial de la inteligencia artificial en si dependieron de varias filosofías o teorías de estos mismos filósofos, pero en si para que la inteligencia artificial fuese considerada una ciencia exacta se consideraba contar con una justificación matemática en ámbito lógico, computacional y probabilístico; defendiendo así conceptos conforme al enfoque y aplicación dentro de la inteligencia artificial de varios de estos ámbitos.

Un ámbito filosófico que dio un gran avance fue el algoritmo de Euclídeo es considerado el primer algoritmo no trivial diseñado para el cálculo del máximo común divisor; este pensamiento recursivo inicio en el siglo lX con el matemático persa Al-Khowarazmi quien consideraba quien consideraba al algoritmo como a un objeto dentro de sí mismo. Kurt Godel hizo una implementación del teorema de incompletitud donde demostró que en cualquier lenguaje que tuviera la capacidad suficiente para poder expresar las diferentes propiedades de los números naturales.

Page 2: Int artificial

NeurocienciaPara poder expresar la inteligencia artificial o darla a conocer se debe investigar varios ámbitos del como procesa información el cerebro y para este estudio nos apoyamos de la neurociencia que es el estudio del sistema neurológico y en especial del cerebro.

“De entre todos los animales el hombre tiene el cerebro más grande en proporción a su tamaño” fue una de las frases o deducciones de Aristóteles dando a conocer que el humano tenia capacidades más grandes que todos los demás. La deducción de Aristóteles al pasar del tiempo fue aceptada por la comunidad científica de que el cerebro es la base de la conciencia, la cual en épocas anteriores se creía presente en órganos como el corazón, el bazo y la glándula pineal, es decir él es el que mueve a todo el cuerpo .

Ingeniería computacionalComo su nombre lo dice ingeniería computacional es la enfocada a los aspectos de computación programable y complementando a la “inteligencia artificial”, para que dicha ciencia se pueda hacer realidad se necesita de dos elementos esenciales e irremplazables, la inteligencia y un artefacto, la inteligencia para poder razonar que aspectos son necesarios dentro de la creación de un proyecto enfocada hacia cualquier rama y el artefacto la herramienta de la cual recaerá la idea principal de nuestra inteligencia.

LINGÜÍSTICAEn 1957, B. F. Skinner publico Verbal Kehavior. La obra presentaba una visión extensa y detallada desde el enfoque conductista al aprendizaje del lenguaje, y estaba escrita por los expertos más destacados de este campo. La lingüística tiene una función importante dentro de la inteligencia artificial porque gracias a ella podemos calificar las diferencias de idealismo.

Page 3: Int artificial

HISTORIA DE LA INTELIGENCIA ARTIFICIAL

c

Wirren McCulloch y Walter Pitts ( 1943) son reconocidos como los autores del primer trabajo de IA. Partieron de tres fuentes: conocimientos sobre la fisiología básica y funcionamiento de las neuronas en el cerebro, el análisis formal de la lógica proposicional de Kussell y Whitehead y la teoría de la computación de Turing. Postularon un modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por contar activada o desactivada; la activación se daba como respuesta a la estimulación producida por una cantidad suficiente de neuronas vecinas. El estado de una neurona se veía como (equivalente de hecho, a una proposición con unos estímulos adecuados). Mostraron ejemplos como, que cualquier función de cómputo podría calcularse mediante alguna red de neuronas interconectadas, y que todos los conectores Lógicos (and, or, not, etc.) se podrían implementar utilizando estructuras de red sencillas

Computing Machinery and Intelligence fue un artículo científico en el que Alan Turing introdujo las pruebas de Turing, las máquinas de Turing, el aprendizaje automático, los algoritmos genéricos y el aprendizaje por refuerzo, todo esto en el año de 1950.

1.- la regla “de aprendizaje Hebbiano o de Hebb

NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL (1956)

Princeton tuvo bases de figuras señeras de inteligencia artificial como John McCarthy. Después de la graduación de McCarthy este se traslado al Dartmouth College, donde surgiría el nacimiento oficial de este campo. En la estancia en este colegio McCarthy convencio a Minsky, Laude Shannon y Nathaniel Rochester para que estos le ayudaran a aumentar el interés de los investigadores americanos en la teoría de autómatas, las redes neuronales y el estudio de la inteligencia.

1.- Programa lógico Juego de damas”

2.- El más en específico el “Teórico Lógico (TL)”

3.- “Teórico Lógico (TL)”

ENTUSIASMO INICIAL, GRANDES ESPERANZAS (1952 – 1969)

Con una lógica que intentaba imitar los protocolos de resolución de problemas de los seres humanos, se considera que el SRGP probablemente fue el primer programa que incorporo el enfoque de pensar como un ser humano.

Page 4: Int artificial

Al éxito del SRGP, sus creadores desarrollaron el sistema de símbolos físicos con el argumento de que un conjunto de símbolos físicos referentes a un área o elemento de conocimiento específico es capaz de generar acciones de inteligencia.

John McCarthy se trasladó a las instalaciones del MIT en 1958, guiado principalmente al laboratorio de inteligencia artificial, donde tuvo grandes avances para dicha área, uno de ellos y considerado el más importante fue la concepción del lenguaje de alto nivel LISP.

1.-Pensar como un ser humano

2.- sistema de símbolos físicos

3.- El lenguaje de alto nivel LISP

UNA DOSIS DE REALIDAD (1966 – 1973)

La inteligencia artificial con el pasar de los años ha tenido grandes logros y en sus primeros años de existencia hubo un poco de exageración en cuanto a los avances a futuros de la inteligencia artificial es decir los alcances que se tenían dentro de la inteligencia artificial que se deseaban alcanzar sin fijar algunas trabas en su desarrollo, postulando teorías claras que tiempo después fueron desmentidas con fuertes criterios dicha confianza por parte de Herbert Simon se debió en parte a los excelentes resultados de los primeros problemas (simples) de IA resueltos y a la aparente inexperiencia que se tenía por parte de todos los investigadores de su época.

SISTEMAS BASADOS EN EL CONOCIMIENTO: ¿CLAVE DEL PODER? (1969 – 1979)

La teoría de las redes neuronales no fue creíble en 1969llevando asi a postular los métodos débiles que eran mecanismos de búsqueda de propósito general apoyando a esta teoria, en los que se entrelazaban elementos de razonamiento básicos para encontrar soluciones completas. En este mismo año pero en la universidad de Stanford se creó el programa DENDRAL en donde un grupo de científicos de diversas ramas entre ellos Herbert Simon unieron esfuerzos para resolver el problema de inferencia de una estructura molecular a partir de la información proporcionada por un espectrómetro de masas. Con un nuevo y mejorado conocimiento de los sistemas expertos, la inteligencia artificial inicio una nueva etapa en las filas de su conocimiento, dando a conocer una nueva industria llenas de nuevas características de desarrollo como la posibilidad de reducir en gran medida los costos especificados por actividades complejas con muy poca inversión en el desarrollo de dicho sistema experto.

1.- métodos débiles

2.- Proyecto de Programación Heurística (PPH)

Page 5: Int artificial

REGRESO DE LAS REDES NEURONALES (DESDE 1986 HASTA EL PRESENTE)

Algunos científicos continuaron su investigación dentro de sus laboratorios privados y gracias a ellos y sus avances a mediados de la década de los 80 resurgió el auge por la investigación de las redes neuronales. Los nuevos modelos de redes neuronales dentro de la inteligencia artificial fueron bautizadas como conexionistas .

IA SE CONVIERTE EN UNA CIENCIA (DESDE 1987 HASTA EL PRESENTE)

La inteligencia artificial dio uno de sus más grandes pasos y se convirtió en una de las ciencias exactas derivadas de la informática con más logros y aplicación en la actualidad.

La mayoría de los investigadores de estas áreas basan sus investigaciones en conocimientos bien definidos, esto para evitar errores y pérdida de tiempo en conocimientos erróneos y anular la posibilidad de estar creando ejemplos de juguete.

1.- ejemplos de juguete

EMERGENCIA DE LOS SISTEMAS INTELIGENTES (DESDE 1995 HASTA EL PRESENTE)

Un agente inteligente que funcione de forma autónoma en un entorno real con variables de entorno semi-infinitas en donde las actividades de procesamiento se basen en censores de tiempo real que obtengan lecturas precisas del entorno con el que interactúa el agente inteligente y que de esta forma pueda actuar con precisión y delicadeza a la vez para poder aplicarlos a entornos riesgosos o de zuma delicadeza en los que una vida humana correría peligro, es decir que adaptarlos a algún mecanismo que sea utilizado por los humanos que les ayude en distintas tareas en donde ellos podrían recibir lesiones algunas como desarmar una bomba, mover sustancias peligrosas, etc.

Page 6: Int artificial

HISTORIA Y ACONTECIMIENTOS DE LA INTELIGENCIA ARTIFICIAL