36
LA INTELIGENCIA ARTIFICIAL La inteligencia artificial ¿Hacia dónde nos lleva? Renato Gómez Herrera Un vistazo al sueño humano de la creación Cuando en los años cuarenta se pusieron a funcionar las primeras computadoras (esos roperos de metal, llenos de bulbos) se les llamó “cerebros electrónicos”, ya que podían hacer sumas. Esto hizo imaginar a muchos: “Mañana las máquinas conversarán con nosotros”. Y entonces el cine, los dibujos animados y la televisión se poblaron de robots “inteligentísimos” —aunque de movimientos algo torpes— que acompañaban a los humanos en toda clase de mundos. Mientras los alumnos de cibernética seguían perforando tarjetas, en el cine la computadora HAL se ponía paranoica y tomaba la decisión de asesinar a los astronautas de la película 2001, Odisea del Espacio. La industria de las computadoras no dejó de evolucionar y, de pronto, aquellos enormes aparatos con grandes cintas de carrete se volvieron pequeños y mucho más fáciles de operar. Un día ya tenían un monitor y un teclado para comunicarnos con sus circuitos. Al día siguiente aparecieron en nuestras casas las computadoras personales y hoy están por todos lados, volviéndose indispensables. Los niños de hoy viven en un mundo que, por lo menos en parte, la ciencia ficción imaginó hace 50 años. ¿A nuestra imagen y semejanza?

Inteligencia artificial y Aerosoles

Embed Size (px)

DESCRIPTION

Inteligencia artificial y Aerosoles: investigaciones generales

Citation preview

Page 1: Inteligencia artificial y  Aerosoles

LA INTELIGENCIA ARTIFICIAL

La inteligencia artificial ¿Hacia dónde nos lleva?

Renato Gómez Herrera

Un vistazo al sueño humano de la creación

Cuando en los años cuarenta se pusieron a funcionar las primeras computadoras (esos roperos de

metal, llenos de bulbos) se les llamó “cerebros electrónicos”, ya que podían hacer sumas. Esto hizo

imaginar a muchos: “Mañana las máquinas conversarán con nosotros”. Y entonces el cine, los

dibujos animados y la televisión se poblaron de robots “inteligentísimos” 

—aunque de movimientos algo torpes— que acompañaban a los humanos en toda clase de mundos.

Mientras los alumnos de cibernética seguían perforando tarjetas, en el cine la computadora HAL se

ponía paranoica y tomaba la decisión de asesinar a los astronautas de la película  2001, Odisea del

Espacio.

La industria de las computadoras no dejó de evolucionar y, de pronto, aquellos enormes aparatos

con grandes cintas de carrete se volvieron pequeños y mucho más fáciles de operar. Un día ya

tenían un monitor y un teclado para comunicarnos con sus circuitos. Al día siguiente aparecieron en

nuestras casas las computadoras personales y hoy están por todos lados, volviéndose indispensables.

Los niños de hoy viven en un mundo que, por lo menos en parte, la ciencia ficción imaginó hace 50

años.

¿A nuestra imagen y semejanza?

La palabra robot, acuñada en 1921 por el escritor checo Karel Capek, ya ha dejado de ser sinónimo

de androides metálicos que van moviendo sus brazos como tentáculos, mientras avanzan sobre sus

rueditas por el planeta de las Amazonas Sicodélicas. Los robots serán parte de nuestra vida

cotidiana.

Ya comienzan a serlo. En el siglo XX, el ser humano intenta reproducir el antiguo mito de la

creación. Así como, según la Biblia, Dios creó a Adán y a Eva para no estar solo, ahora nosotros

quisiéramos crear compañeros a nuestra imagen y semejanza. ¿Pero, de qué tipo? Que nos sean

útiles y podamos interactuar con ellos de una forma cercana, casi natural; por eso se desea poner un

cerebro artificial dentro de un cuerpo que imite lo mejor posible al nuestro. Finalmente somos como

Page 2: Inteligencia artificial y  Aerosoles

tristes Gepetos soñando con darle vida a un muñeco de madera para no sentirnos tan solos.

Procurando ese sueño, el industrial estadounidense Joe Engelberg construyó un prototipo en los

años cincuenta, y en la década siguiente vendió su primer robot útil. Pero realmente los robots

dejaron de ser ficción en los años ochenta, cuando brazos gigantes que se movían obedeciendo un

programa predeterminado, desplazaron a los obreros en las fábricas automotrices de Japón. Y

aunque la robótica tiene el objetivo de poner a las máquinas a trabajar en todas las áreas posibles,

esto es caro y complicado.

En los Estados Unidos han logrado crear un modelo que es capaz de caminar, captar el movimiento

de una pelota en el aire y cacharla con su mano mecánica. Sin embargo, para ejecutar un

movimiento tan sencillo, el costoso robot (que asemeja más a una maraña de alambres y pistones

hidráulicos que a un humano) está conectado a varias computadoras que trabajan a su máxima

capacidad intentando coordinar lo que detectan los “ojos” (varias cámaras de video) y el

movimiento del brazo y la mano.

Aunque es cierto que Mike —otro robot acoplado a una lavadora rodante que limpia, pule y

abrillanta pisos— es aún tan caro que cuesta menos tener un empleado que lo haga, no siempre será

así. Un día, la producción en masa hará a los robots baratos. Si algunos tendrán una figura

semejante a la nuestra, está por verse. Lo que parece más factible es que sus cerebros electrónicos

tengan algún grado de inteligencia.

¿Puede la inteligencia ser artificial?

La inteligencia artificial (IA) puede definirse como el medio por el cual las computadoras, los

robots y otros dispositivos realizan tareas que normalmente requieren de la inteligencia humana. Por

ejemplo, la resolución de cierto tipo de problemas, la capacidad de discriminar entre distintos

objetos o el responder a órdenes verbales. La IA agrupa un conjunto de técnicas que, mediante

circuitos electrónicos y programas avanzados de computadora, busca imitar procedimientos

similares a los procesos inductivos y deductivos del cerebro humano. Se basa en la investigación de

las redes neuronales humanas y, a partir de ahí, busca copiar electrónicamente el funcionamiento

del cerebro.

El avance en la investigación de las redes neuronales va ganando terreno a una velocidad

espectacular. Entre sus aplicaciones destaca la poderosa computadora Deep Blue, que puede vencer

a cualquier jugador de ajedrez: no sólo tiene gran cantidad de jugadas programadas, sino que

Page 3: Inteligencia artificial y  Aerosoles

aprende de su adversario, por lo que se va volviendo capaz de adelantarse a las decisiones de su

enemigo y hundir sus estrategias antes de que prosperen.

Esas redes también se han usado en los autos robot, que pueden circular por las autopistas a una

velocidad normal con un excelente margen de seguridad, y de hecho han cruzado la Unión

Americana de costa a costa sin que el conductor tuviera que tocar el volante o los pedales. Persisten

dos problemitas: la cajuela continúa atiborrada de equipo y cuestan un dineral. Pero siguiendo esta

línea de avance, es posible que en la próxima década sea común que en la central de autobuses una

máquina pregunte al pasajero si desea viajar en un autobús conducido por un humano o guiado por

computadora; este último servicio será más seguro y por lo tanto más caro. Se espera que en poco

tiempo, imitando el funcionamiento de nuestro cerebro, las computadoras ya no tendrán un gran

procesador, sino miles (y más adelante millones) de pequeños procesadores totalmente

interconectados entre sí, lo que permitirá la maravillosa capacidad de aprender a través de

experiencias recogidas por los “sentidos” de la máquina (cámaras de video, micrófonos, etcétera).

A la vanguardia de la IA

Entrevista con el doctor Ismael Espinosa Espinosa.

El doctor Ismael Espinosa me abre sonriente las puertas del Laboratorio de Cibernética de la

Facultad de Ciencias, de la UNAM. Son las nueve de la mañana en punto. Nos concede la entrevista

en su despacho, saturado de libros, imágenes de paisajes futuristas y uno que otro robot de juguete.

¿Qué sueñan los que ahora están a la vanguardia de la inteligencia artificial?

—Creo que el hombre desea, desde hace mucho, a un amigo que lo acompañe en su viaje por el

cosmos. Hace milenios se inventaron las marionetas, después los androides animados por complejos

mecanismos de relojería, como el famoso jugador turco de ajedrez, que incluso le ganó a Napoleón

una partida (años después se descubrió que en su interior había estado escondido un enano). Los

robots del futuro harán que los prototipos actuales se parezcan a aquellos llenos de engranes del

siglo XVIII.

Page 4: Inteligencia artificial y  Aerosoles

¿Y cómo serán esos robots?

 —Quizá sean robots biológicos. Definitivamente la clonación es un fuerte competidor de la

robótica como la conocemos. Ya se puede clonar fibra muscular mucho más fuerte que la nuestra, u

órganos internos tan complejos como el corazón.

¿Se puede clonar un cerebro?

—Aún no, pero ya trabajamos en las redes neuronales, que intentan ser la copia electrónica del

funcionamiento de un cerebro. Actualmente usamos redes pequeñas, pues cuando éstas son muy

complejas, se pierde el control y ya no sabemos exactamente qué está ocurriendo ahí dentro.

¿Qué diferencia existe entre las redes neuronales y las computadoras actuales?

—Mucha. Las redes neuronales están conectadas entre sí de manera que la información no se

almacena en un solo lugar, sino que está repartida, y cada neurona puede activar o inhibir el

funcionamiento de las otras. Esto quiere decir que si la computadora recibe un golpe que destruya

una parte de la red, ésta puede seguir funcionando. Pero lo que se busca es reproducir la capacidad

de aprender.

¿Cómo va el estudio de la robótica en México?

—Un poco atrasado. Las redes neuronales comenzaron a usarse desde los años 60, pero entonces,

cuando yo traje ese concepto a México y me tildaron de loco, ni siquiera me dieron acceso a las

computadoras que se tenían, así que perdimos muchos años. Ahora, que ya se sabe qué son y qué

alcances tienen, todos quieren saber de redes neuronales. Por otro lado, la robótica es una ciencia

muy compleja, que necesita ingenieros en computación, ingenieros mecánicos y electrónicos,

matemáticos y hasta expertos en fisiología. Desarrollar un robot requiere de equipos

multidisciplinarios que no siempre son fáciles de armar. Finalmente, sólo quisiera agregar que por

más que avancemos en el campo de la inteligencia artificial, siempre sentiremos que hay una

especie de enano escondido dentro de los robots.

¿Qué podemos esperar en el futuro?

Page 5: Inteligencia artificial y  Aerosoles

Se han hecho cuantiosas predicciones de lo que la aplicación de las técnicas de IA traería en el

futuro; algunas podrían ser realidad en poco tiempo y otras parecen francamente especulativas.

Echemos un vistazo:

En el terreno de las computadoras personales, la velocidad de un procesador será enorme y no

podremos agotar su memoria ni cargando ciclos enteros de cine ruso, que podremos ver doblados al

español con una voz idéntica a la de los actores. Serán gobernadas con la voz: “Actívate”. Quizá ya

no sean necesarios los monitores; unos anteojos inalámbricos de realidad virtual nos mostrarán

cómo va quedando nuestro texto. Los teclados también serán tan obsoletos como ahora lo son las

tarjetas con hoyitos; en vez de teclear, quizá podremos plasmar palabras en la memoria de la

computadora con sólo imaginarlas, gracias a una discreta placa (chip) adherida a nuestra frente. Una

voz agradable nos dirá al oído que hemos cometido un error de sintaxis y nos proporcionará, si lo

deseamos, una lista de posibles soluciones. En lugar de usar el “ratón”, podremos manipular el texto

(o el dibujo, o lo que sea) con el movimiento de nuestros ojos, que será detectado por un inofensivo

rayo láser.

La red Internet, que llegará a nuestra casa a través del cableado óptico, transportará inmensas

cantidades de información que serán cargadas en nuestra computadora en décimas de segundo. Las

imágenes aparecerán instantáneamente y nos reiremos de la época en que una página tardaba hasta

10 minutos en “bajar”. Por medio de la red podremos acceder a cualquier programa de televisión o

radio que se transmita en cualquier parte del mundo, con una traducción impecable, o guardarlo en

la memoria de la máquina si deseamos verlo más tarde, como si fuera una videocasetera. Pero si

algún amigo se perdió de ese programa, se lo enviaremos a su terminal en segundos. Los estudiantes

tendrán cada vez más clases virtuales en las que accederán directamente a los bancos de

información de la universidad y se comunicarán con sus maestros sólo para resolver dudas o

exámenes.

Pronto los robots comenzarán a desplazar al personal que nos atiende detrás de las ventanillas. Una

máquina podrá perfectamente cambiarnos un cheque y resolver de manera satisfactoria las dudas

sobre nuestro estado de cuenta. El cajero automático del cine recibirá nuestro dinero (o una tarjeta)

para darnos a cambio entradas para la película en el horario que le indiquemos. Y así será en los

aeropuertos, las estaciones de ferrocarril y en todas partes donde ahora hay ventanillas ocultando a

empleados que aguardan impacientes la hora de salida.

Page 6: Inteligencia artificial y  Aerosoles

Es muy probable que la economía cambie. Quedarán en el pasado los tipos de traje peleándose a

gritos en las casas de bolsa. Las computadoras, conectadas en red a los indicadores bursátiles de

todo el mundo, moverán los capitales de un lugar a otro, sin que sea necesaria la voluntad humana,

obedeciendo tan sólo a agresivos programas que beneficiarán a los dueños del dinero, sin importar

si una nación se hunde en una pavorosa crisis en algunos instantes.

Los edificios “inteligentes” serán comunes. Al llegar a casa la puerta se abrirá con el sonido de

nuestra voz. Sensores dispuestos en cada rincón encenderán la luz de la habitación a la que

entremos y dejarán a oscuras la que ha quedado sola, ahorrando electricidad. La temperatura

también será regulada por la computadora central para ofrecernos un clima privado a nuestro gusto.

Verbalmente activaremos la televisión, el aparato de sonido o cualquier otro electrodoméstico

conectado a nuestra ama de llaves cibernética. Por las mañanas, el desayuno que dejamos en el

microondas comenzará a prepararse; en la radio la estación de nuestra preferencia nos despertará

mientras el calentador se ajusta para que nos demos una ducha deliciosa. Al salir podremos estar

tranquilos porque la casa estará capacitada para detectar a posibles intrusos y, en caso dado, la

alarma se activará a la más mínima insinuación de peligro, dando aviso a los cuerpos de seguridad.

Si llega a haber una guerra global, ésta podría ser nombrada por los medios como “The Robot War”,

en la que los pilotos controlarían por realidad virtual pequeños y mortíferos aviones, helicópteros y

tanques a cientos de kilómetros del campo de batalla sin arriesgar un solo cabello.

Es muy probable que en pocos años, robots cirujanos realicen complejas intervenciones utilizando

el instrumental quirúrgico con la precisión de una impresora.

Algún día, el Sojourner, el robot que exploró Marte, será una caja de zapatos comparada con los

que llegarán a ese planeta, no para posar un espectrómetro sobre las piedras, sino para construir los

centros urbanos de los primeros colonizadores. La última frontera serán los robots biológicos

autorreplicantes que poblarán en nuestro nombre otros sistemas solares hasta hacerlos habitables

para nuestra especie.

¿Pueden pensar las máquinas?

Se ha logrado dotar a las máquinas de información útil que pueden usar en un ámbito especializado,

por ejemplo para recorrer una trayectoria de obstáculos y memorizarla o para ejecutar algunos

procesos complejos, pero el pensamiento humano es otra cosa: nuestro cerebro posee

aproximadamente 10 mil millones de neuronas y si todavía no sabemos exactamente cómo se

Page 7: Inteligencia artificial y  Aerosoles

interrelacionan para “pensar”, mucho menos podemos reproducir en una máquina ese proceso. Hay

muchos aspectos que diferencian al cerebro humano de los sistemas desarrollados por la

inteligencia artificial, entre ellos:

• Las máquinas carecen de mecanismos intuitivos y se basan sólo en el método automático de

prueba y error; por ello, no tienen la capacidad de reaccionar ante situaciones inesperadas ni la

posibilidad de generalizar acontecimientos distintos.

• Las máquinas carecen de creatividad, aspecto hasta ahora totalmente humano. En las máquinas no

existe una interrelación creativa, y los cambios de contexto no implican una modificación sustancial

entre sus circuitos y programas; el medio circundante no modifica estructuralmente sus funciones.

• La mente humana está provista de valores producto de la interrelación social; al carecer de

aquéllos, las máquinas no pueden evolucionar o autoperfeccionarse.

¿Y la gente?

Al parecer la inteligencia artificial promete un mundo fantástico, pero ¿realmente lo será? ¿Qué

pasará, por ejemplo, con la enorme cantidad de seres humanos que no tienen acceso a la educación

ni a la tecnología?, ¿qué pasara con las relaciones humanas y con la economía, con la enorme

brecha entre ricos y pobres, entre desarrollo y subdesarrollo? No sabemos a ciencia cierta cuál será

el futuro de la humanidad, pero sí sabemos que indudablemente cambiarán las relaciones de

producción y quizá de comunicación. Es altamente probable, por ejemplo, que se agrave aún más el

problema del desempleo; que se transformen radicalmente los conceptos de ocio y tiempo libre; que

cambien las relaciones laborales entre patrones y trabajadores; que haya una revolución aún mayor

en cuanto al acceso a la información y que se agudicen las diferencias entre países hacedores de

tecnología y de aquellos históricamente dependientes. Es casi seguro que la inteligencia artificial y

el desarrollo tecnológico subsecuente estarán al servicio de una minoría. Si por el contrario, el

desarrollo tecnológico –y específicamente la inteligencia artificial— se utiliza para lograr que todos

en este planeta logremos un mejor nivel de vida en estricta relación con el medio ambiente, tal

artificio será realmente inteligente.

http://www.comoves.unam.mx/numeros/articulo/2/la-inteligencia-artificial-hacia-donde-nos-lleva

Inteligencia artificial

Page 8: Inteligencia artificial y  Aerosoles

La inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como

las ciencias de la computación, lamatemática, la lógica y la filosofía, estudia la creación y diseño de

sistemas capaces de resolver problemas cotidianos por sí mismas utilizando como paradigma

la inteligencia humana.[cita requerida]

General y amplio como eso, reúne a amplios campos, los cuales tienen en común la creación de

máquinas capaces de pensar. En ciencias de la computación se denomina inteligencia artificial a la

capacidad de razonar de un agente no vivo.1 2 3John McCarthy acuñó la expresión «inteligencia

artificial» en 1956, y la definió así: “Es la ciencia e ingenio de hacer máquinas inteligentes,

especialmente programas de cómputo inteligentes”.4

Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones

posibles.

Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).

Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y

humanos).

Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.

También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas,

respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos

en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.

Al igual que en la informática convencional, en la Inteligencia artificial tenemos una serie de

elementos peculiares que la caracterizan y la diferencian. Para Nilsson son cuatro los pilares básicos

en los que se apoya la Inteligencia Artificial, los cuales serán analizados a continuación.

Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la

habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de

escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente

son parte de la rutina en campos como economía, medicina, ingeniería y lamilicia, y se ha usado en

gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y

otros videojuegos.

Categorías de la inteligencia artificial

Búsqueda heurística. Podemos definir una heurística como un truco o estrategia que limita

grandiosamente la búsqueda de soluciones ante grandes espacios de problemas. Por lo tanto ante un

Page 9: Inteligencia artificial y  Aerosoles

problema, no ayuda a seleccionar las bifurcaciones, dentro de un árbol, con más posibilidades, con

ello se restringe la búsqueda aunque no siempre se garantiza una solución adecuada. Todo lo que se

debe tener para que una heurística sea adecuada es que nos proporcione soluciones que sean lo

suficientemente buenas. Además utilizando la heurística, no será necesario replantear un problema

cada vez que se afronte, ya que si lo hemos planteado anteriormente, ésta sugerirá la forma en que

se ha de proceder para resolverlo. Representación del conocimiento. La representación es una

cuestión clave a la hora de encontrar soluciones a los problemas planteados, y que además éstas

sean adecuadas. Si analizamos más detenidamente el término y además dentro de la Informática, y

más concretamente dentro de la Inteligencia Artificial, encontramos varias definiciones, como

pueden ser las siguientes: según Barr y Feigenbaum, la representación del conocimiento es una

combinación de estructuras de datos y procedimientos de interpretación que, si son utilizados

correctamente por un programa, éste podrá exhibir una conducta inteligente. La opinión de Fariñas

y Verdejo será que la Inteligencia Artificial tiene como objetivo construir modelos computacionales

que al ejecutarse resuelvan tareas con resultados similares a los que obtenida una persona. Por ello,

el tema central de esta disciplina es el estudio del conocimiento y su manejo. Y por último la

opinión de Buchanan y Shortliffe apunta a que la Representación del Conocimiento en un programa

de Inteligencia Artificial significa elegir una serie de convenciones para describir objetos,

relaciones, y procesos en el mundo. Gran parte del esfuerzo realizado en la consecución de

ordenadores inteligentes, según Rahael, ha sido caracterizado por el intento continuo de conseguir

más y mejores estructuras de representación del conocimiento, junto con técnicas adecuadas para su

manipulación, que permitiesen la resolución inteligente de algunos de los problemas ya planteados.

Otra característica a resaltar, es la inclusión en los programas de Inteligencia artificial, aunque por

separado, de los conocimientos y la unidad que controla y dirige la búsqueda de soluciones. Dada

esta disposición, en estos programas se hace fácil la modificación, ampliación y actualización de los

mismos. Hemos de tener en cuenta que un programa de Inteligencia Artificial, tiene toda la

información interconectada e interrelacionada, y estas interconexiones se utilizaran para representar

relaciones unidas al conocimiento genérico sobre el problema planteado. Para que un problema sea

tratado adecuadamente, sabiendo que no es fácil la representación del conocimiento en un entorno

concreto, hemos de elegir un esquema de representación acorde con la naturaleza del dominio de

conocimiento donde se vaya a trabajar. Sentido común y lógica El razonamiento que puede tener

cualquier persona, ha demostrado ser una de las cosas más difíciles de modelar dentro de un

ordenador. El sentido común, a menudo nos ayuda a prever multitud de hecho y fenómenos

corrientes, pero como ya hemos dicho es muy complicado representarlos en un ordenador ya que los

razonamientos, son casi siempre inexactos, dado que sus conclusiones y reglas en las que se basan

Page 10: Inteligencia artificial y  Aerosoles

solamente son aproximadamente verdaderas. Lenguajes, entornos y herramientas de Inteligencia

Artificial En la Inteligencia Artificial, se han desarrollado diferentes lenguajes específicos para los

diferentes campos de aplicación. Estos lenguajes en su mayoría cuentan con una serie de

características comunes que podemos resumir de la siguiente forma: Este tipo de software ofrece

una gran modularidad. Poseen gran capacidad de tomar decisiones de programación hasta el último

momento, es decir cuando el programa ya está ejecutándose. Ofrecen grandes facilidades en el

manejo de listas, y esto es importante, ya que las listas son la estructura más habitual usada para la

representación del conocimiento en la Inteligencia Artificial. Facilitan la realización de ciertos tipos

de deducción automática permitiendo también, la creación de una base de hechos, que es el lugar

donde se recogen los datos iniciales del problema a resolver y también los resultados intermedios

una vez obtenidos. Permite el uso simultáneo de estructuras que incorporan conocimiento

declarativo y conocimiento procedimental. Tienen una marcada orientación gráfica. Además, las

herramientas de Inteligencia artificial, permiten hacer un seguimiento de todos los cambios

realizados a lo largo de toda la sesión Disponen herramientas capaces de desarrollar programas que

son capaces de comprender otros programas y también de realizar modificaciones sobre ellos.

Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:5

Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento

humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que

vinculamos con procesos de pensamiento humano, actividades como la toma de

decisiones, resolución de problemas y aprendizaje.6

Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es

decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr

que los computadores realicen tareas que, por el momento, los humanos hacen mejor.7

Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o

emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El

estudio de los cálculos que hacen posible percibir, razonar y actuar.8

Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma racional el

comportamiento humano; por ejemplo los agentes inteligentes.Está relacionado con conductas

inteligentes en artefactos.9

Escuelas de pensamiento

La IA se divide en dos escuelas de pensamiento:

Page 11: Inteligencia artificial y  Aerosoles

La inteligencia artificial convencional

La inteligencia computacional

Inteligencia artificial convencional

Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del

comportamiento humano ante diferentes problemas:

Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos

problemas concretos y, aparte de que son muy importantes, requieren de un buen

funcionamiento.

Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que

se aplica y ocupa de ciertas reglas o relaciones.

Redes bayesianas: Propone soluciones mediante inferencia probabilística.

Inteligencia artificial basada en comportamientos: Esta inteligencia contiene autonomía y puede

auto-regularse y controlarse para mejorar.

Smart process management: Facilita la toma de decisiones complejas, proponiendo una

solución a un determinado problema al igual que lo haría un especialista en la dicha actividad.

Inteligencia artificial computacional

La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica

desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en

sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos.

Historia

El término “inteligencia artificial” fue acuñado formalmente en 1956 durante la conferencia de

Darthmounth, más para entonces ya se había estado trabajando en ello durante cinco años en

los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado

ser aceptadas totalmente por la comunidad investigadora. La IA es una de las disciplinas más

nuevas junto con la genética moderna.

Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue

el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la

mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la

Page 12: Inteligencia artificial y  Aerosoles

primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin

razonamiento).

En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser

efectuado de manera artificial.

En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad

de un dispositivo físico para implementar cualquier cómputo formalmente definido.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el

cual se considera el primer trabajo del campo, aún cuando todavía no existía el término. Los

primeros avances importantes comenzaron a principios del año 1950 con el trabajo de Alan

Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.

En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de

programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan

el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.

En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin

Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron

previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi

total de las investigaciones durante quince años.

En 1957 Newell y Simon continúan su trabajo con el desarrollo del  General Problem

Solver (GPS). GPS era un sistema orientado a la resolución de problemas.

En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT)

el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para

procesamiento simbólico.

En 1959 Rosenblatt introduce el Perceptrón.

A finales de los 50 y comienzos de la década del 60 Robert K. Lindsay desarrolla «Sad Sam»,

un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su

interpretación.

En 1963 Quillian desarrolla las redes semánticas como modelo de representación del

conocimiento.

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual

era capaz de inferir conocimiento basado en información que se le suministra. Bobrow

desarrolla STUDENT.

A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una

solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan,

Page 13: Inteligencia artificial y  Aerosoles

Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras

químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en la

solución de ecuaciones matemáticas complejas.

Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que

permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.

En 1968 Minsky publica Semantic Information Processing.

En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig desarrollan el lenguaje de

programación LOGO.

En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980.

En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille

crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación

ampliamente utilizado en IA.

En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de muchas técnicas actuales

en Inteligencia Artificial y la informática en general.

En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más

conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre.

En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON,

ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy

(Shells) como EMYCIN, EXPERT, OPSS.

En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras.

En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes

Neuronales).

En 1988 se establecen los lenguajes Orientados a Objetos.

En 1997 Gari Kaspárov, campeón mundial de ajedrez, pierde ante la computadora

autónoma Deep Blue.

En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial

- Campus Multidisciplinar en Percepción e Inteligencia 2006.

En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar

emociones para poder interactuar con niños autistas.

En el año 2011 IBM desarrolló una supercomputadora llamada Watson , la cual ganó una ronda

de tres juegos seguidos de Jeopardy!, venciendo a sus dos máximos campeones, y ganando un

premio de 1 millón de dólares que IBM luego donó a obras de caridad.10

Page 14: Inteligencia artificial y  Aerosoles

Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un

programa, de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá

Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un

programa de computadora en una conversación a ciegas».

Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un

programa capaz de ser ejecutado independientemente de la máquina que lo ejecute,

computador o cerebro».

Críticas

Las principales críticas a la inteligencia artificial tienen que ver con su capacidad de imitar por

completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad

para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que

existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por

lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las

estrategias y algoritmos que utilizará para encontrar la solución.

En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los

aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información

en la memoria y los aspectos aprendidos el saber resolver un problema matemático mediante el

algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le

permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal

que puedan resolver ciertos problemas.

Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que

al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un

programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el

participante esté sobre aviso de la posibilidad de hablar con una máquina.

Otros experimentos mentales como la Habitación china de John Searle han mostrado cómo una

máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin siquiera

entender lo que hace. Esto demostraría que la máquina en realidad no está pensando, ya que actuar

de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un

ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera

posible lograr dicho efecto mediante reglas definidas a priori.

Page 15: Inteligencia artificial y  Aerosoles

Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el

usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los inicios de los

primeros sistemas operativos informáticos. La capacidad de los humanos para comunicarse entre sí

implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda

comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del

sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene

la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza.

Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un humano interpreta

los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver

ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por

esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las

respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la

polisemia del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos.

Los desarrollos en inteligencia artificial son mayores en los campos disciplinares en los que existe

mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en

física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre

especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a

utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin

embargo, en psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder

ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá

desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el

diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y

psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).

Aerosoles

Los coloides, también llamados suspensiones coloidales, son dispersiones en las cuales el diámetro

de sus partículas dispersas son entre 1.0 nm y 1000 nm y, consecuentemente, tienen características

intermedias entre los compuestos homogéneos y heterogéneos. Sus partículas no pueden verse con

el ojo desnudo, pero dispersan luz porque son lo suficientemente grandes para tal.

Existen varios tipos de coloides característicos de los procesos importantes en nuestra vida

cotidiana. Ellos se distinguen según las fases dispersas, que pueden estar en los estados sólidos,

líquidos o gaseosos.

Page 16: Inteligencia artificial y  Aerosoles

Los aerosoles pueden ser sólidos (cuando las partículas sólidas se dispersan en un gas) o líquidos

(cuando un líquido está disperso en un gas). Veamos ejemplos de ambos tipos de aerosoles a

continuación.

Aerosoles líquidos Brumas y nieblas: en términos generales, son el resultado de la condensación

del vapor de agua que, en forma de gotas, quedan suspendidos en la atmósfera, casi siempre junto a

la superficie terrestre.

En ese caso, tenemos un aerosol líquido en el cual el medio de dispersión es un gas, el aire; y la

fase dispersa es un líquido, el agua. Sin embargo, existen nieblas resultantes de la dispersión de

otros materiales que no son los vapores de agua. Principalmente en los grandes centros urbanos, hay

nieblas constituidas por un enorme número de sustancias gaseosas, sólidas y líquidas que resultan

de las actividades humanas e interactúan entre sí.

Desodorantes y otros productos domésticos en la forma de spray: en el spray, el componente

activo es disperso en el aire.

Nube: constituida de agua y aire.

Aerosoles sólidos Humo: consiste en partículas sólidas dispersadas en el aire.

Polvo: los granos de polvo normalmente presentan diámetro superior a 1000 nm. Ellos se presentan

en suspensión y tienden a sedimentar y a depositarse sobre los objetos. Sin embargo, hay en el aire

algunos granos de polvo y dimensiones coloidales que nunca sedimentan. Ese tipo de coloide es un

aerosol sólido. El efecto Tyndall, a saber, la dispersión de la luz por partículas coloidales, se

observa más comúnmente en la niebla citada anteriormente y en el polvo. Por ejemplo, puedes ver

el camino de la luz causado por la dispersión de la luz solar en sus partículas coloidales.

Fuente original: Escuelapedia.comhttp://www.escuelapedia.com/aerosol-un-tipo-de-coloide/

Aerosoles

El término aerosol se aplica a la mezcla heterogénea de partículas sólidas o líquidas en un medio

gaseoso, cuyo tamaño va desde 0,002 μm (algunas moléculas) hasta 100 μm, esto significa que

pueden permanecer en suspensión por un tiempo de al menos 1 hora (glosario

EPA http://yosemite.epa.gov/oar/globalwarming.nsf/content/glossary.html), algunos autores

incluyen la condición de que deben ser capaces de observarse o medirse (Hinds, 1982). En la

práctica el término aerosol usualmente se refiere a los componentes semivolátiles y no volátiles que

Page 17: Inteligencia artificial y  Aerosoles

forman parte de las partículas pero no a los compuestos volátiles que residen exclusivamente en la

fase gaseosa (Pöschl et al., 2005).

Fuentes

Las partículas del aerosol ambiental pueden ser de origen primario o secundario. Los aerosoles

primarios son formados por la emisión directa de las partículas desde su fuente y los secundarios se

forman a partir de reacciones atmosféricas a partir de precursores gaseosos

(Pandis et al., 1992; Jacobson et al., 2000). Tanto los primarios como los secundarios pueden

formarse como consecuencia de las actividades naturales o antrópicas. Las partículas naturales

incluyen los siguientes orígenes.

–marino: partículas de sal formadas por la acción combinada del viento y de las olas en el

océano

–mineral: materiales derivados de la acción de los vientos sobre distintas superficies geológicas

–volcánico: inyección de gases y partículas durante una erupción y lava caliente

–biogénico: fuegos forestales, polen, hongos, bacterias, virus, acción de organismos vivientes,

desintegración y dispersión de materiales descompuestos de las plantas

–cósmico: algunos materiales ingresados a la atmósfera desde el espacio exterior (Gourdeau,

2003; Oberdörster et al., 2005).

Los aerosoles orgánicos secundarios (AOS) son un producto de la oxidación atmosférica de algunos

de los gases orgánicos reactivos (GOR) presentes en ella por uno de los tres gases electrofílicos

presentes en trazas en la atmósfera: el radical hidroxilo (OHo), el ozono (O3), y el radical nitrato

(NO3o) (Bjorseth y Ramdahl ,1985; Jacobson et al., 2000).

Los GORs son emitidos durante el quemado de madera y combustibles fósiles, uso de solventes,

emisiones de los vegetales y por los océanos (Duce et al., 1983), estos gases incluyen a compuestos

como alquenos, hidrocarburos aromáticos y fenoles (Jacobson et al.,

2000).

Partículas y aerosol atmosférico.

Por su origen, los aerosoles atmosféricos se clasifican en naturales, compuestos principalmente por

cenizas volcánicas, esporas, polen, sal marina, polvo terrestre, polvo desértico etc., y

antropogénicos, derivados de la actividad humana, tales como humo de chimeneas, tránsito

vehicular, partículas minerales surgidas de procesos industriales, las partículas producidas

Page 18: Inteligencia artificial y  Aerosoles

fotoquímicamente a partir de contaminantes gaseosos también entran en este apartado. Su

concentración puede oscilar desde unos pocos μg/m3 de un aire limpio a varias centenas de mg/m3

en una atmósfera contaminada (Manahan, 2007).

Las partículas no son esféricas ni todas de igual densidad, sino que responden a un alto grado de

variabilidad de tamaño y de anisotropía en todas sus demás propiedades físicas; a fines práctico-

comparativos se les asigna un diámetro equivalente (De) que corresponde al diámetro que tendría la

partícula esférica con el mismo volumen que la partícula en estudio, además y mas importante aún

es el diámetro aerodinámico equivalente (Da) (Bird et al.,

1982). El Da depende de la densidad de la partícula y se define como el diámetro de una partícula

esférica de densidad igual a 1 g/cm3 que tendría los mismos efectos gravitatorios y velocidad en la

atmósfera que la partícula en cuestión. Esta última definición es fundamental para la interpretación

de resultados ambientales y ecotoxicológicos (Baron y Willeke, 1993;

Wilson et al., 2002). Cuando el diámetro aerodinámico de la partícula es menor a 0,5 μm., se utiliza

el diámetro de difusión de la partícula en lugar del diámetro aerodinámico, el cual corresponde al

diámetro de una esfera con el mismo coeficiente de difusión que el de la partícula, bajo las mismas

condiciones de presión, temperatura y humedad relativa (Allen,

1997).

Se pueden distinguir, distintos modos de distribuciones de tamaño (USEPA, 1996;

Seinfeld y Pandis, 1998; Qerol et al., 2001, Puigcerver y Dolors, 2008) (Figura 2.1.2.1):

Partículas ultrafinas, moda de nucleación (<0,02 μm): la mayor concentración en

número de partícula se encuentra entre 5-15 nm. Son atribuidas a precursores como H2SO4,

NH3 y vapor de agua. La vida media de estas partículas en la atmósfera es del orden de horas

ya que coagulan rápidamente con otras partículas o incrementan de tamaño por condensación.

La nucleación se ve favorecida por descensos en la temperatura y/o incrementos en la

humedad relativa (Eastern y Peter 1994, Kulmala et al., 2001).

Moda Aitken (0,02-0,1 μm): estas partículas pueden tener un origen primario (natural

o antropogénico) o secundario (a partir de partículas del moda nucleación). Mucho se

desconoce aún acerca de la composición química de estas partículas, aunque es muy probable

que las de origen secundario se formen por procesos de coagulación a partir del modo de

nucleación, por condensación y/o por reacciones en fase líquida (con compuestos

inorgánicos). La influencia de las emisiones antropogénicas en las partículas de la moda

Aitken no está bien definida en la actualidad.

Moda de acumulación (0,1-1 μm): la mayor densidad de partículas se registra entre

Page 19: Inteligencia artificial y  Aerosoles

150-250 nm. En la atmósfera, las partículas de la moda Aitken crecen hasta formar parte de la

moda de acumulación por medio de reacciones en fase líquida que tienen lugar en gotas de

agua en las nubes. La transferencia de masa es máxima en la nube a pesar del escaso tiempo

de reacción, debido al elevado volumen de agua y la velocidad de reacción en las nubes.

Aproximadamente el 90% del sulfato que se forma en la atmósfera es originado por la

oxidación en fase líquida del dióxido de azufre en las nubes (Langner y Rodhe, 1992). El

tiempo de residencia en la atmósfera es máximo para las partículas de esta moda.

Moda gruesa (>1 μm en términos de aerosoles atmosféricos): en términos de calidad

del aire y epidemiología esta moda comprende las partículas de diámetro >2,5 μm. La mayor

parte de las partículas en esta moda se forman por procesos mecánicos tales como la erosión

de la superficie terrestre. El crecimiento de las partículas de diámetro <1 μm no puede dar

lugar a partículas de diámetro >1 μm. Por otra parte, los procesos mecánicos que generan las

partículas primarias no pueden normalmente producir partículas de diámetro <1 μm debido

a limitaciones energéticas. Consecuentemente, la transferencia de partículas entre diferentes

modas se encuentra con un límite en torno a 1 μm. Las partículas <1 μm son denominadas

partículas finas, mientras que aquellas de diámetro >1 μm son gruesas (USEPA, 2004).

Figura 2.1.2.1: Distribuciones modales de tamaños de partículas según USEPA 1996,

2004, y Querol et al. (2001).

Todo ello se reduce a dos modas, finas y gruesas, si se contabilizan los dos primeros conjuntamente,

o bien si se hace una clasificación atendiendo a la masa de las partículas.

Page 20: Inteligencia artificial y  Aerosoles

Referente a su eliminación de la atmósfera, los núcleos de Aitken se condensan en partículas de

mayor tamaño para posteriormente sufrir una coalescencia en cadenas de agregados, siendo

finalmente eliminados por precipitación en el agua de lluvia (WHO, 2003). Las partículas entre del

moda de acumulación forman gotas que se eliminan de modo parecido aunque menos eficazmente y

las partículas gruesas se eliminan por acción gravitatoria, esto es, por sedimentación (Pósfai y

Molnár, 2000).

En primer lugar, el tiempo de residencia atmosférica posee una relación inversa con el tamaño de

partícula (para partículas de diámetro aproximadamente >50 nm). La vida media de las partículas de

la moda de nucleación (<0,02 μm) es muy reducida (horas), debido a su rápida transformación a la

moda Aitken. El tiempo de residencia en suspensión de las partículas de la moda gruesa incrementa

al disminuir el diámetro: varias horas para las partículas de diámetro >20 μm, y de 2-4 días para

partículas de 2-3 μm. Finalmente, las partículas en las modas de acumulación y en el límite superior

de la moda Aitken (0,1-1 μm) presentan el mayor tiempo de residencia en la atmósfera (Mészáros,

1999).

Las partículas de diámetro >0,1 μm (modas de acumulación y gruesa) actúan como eficientes

núcleos de condensación debido a que suelen contener una importante fracción soluble en agua, y es

por ello que uno de sus principales mecanismos de retirada de la atmósfera es la deposición

húmeda. De esta manera, la vida media de las partículas entre 0,1-

1 μm se considera similar a la del agua (alrededor de 10 días) (Pósfai y Molnár, 2000). Por el

contrario, las partículas carbonosas son de naturaleza más hidrofóbica, por tanto es necesario el

transcurso de cierto tiempo hasta que la oxidación de la superficie de estas partículas permita su

retirada por deposición húmeda. Como resultado, la vida media de las partículas carbonosas es

superior a la de la fracción soluble (Gaffney et al., 2002).

Partículas.Calidad de aire y Salud.

El número de partículas domina las modas de Nucleación y Aitken, mientras que la distribución en

función de la superficie muestra un máximo en torno a 0,1 μm, lo cual indica que en este diámetro

se produce la acumulación de masa de forma más efectiva por procesos de coagulación y

condensación, con un máximo de masa concentrado en la moda gruesa

(Querol et al, 2001). Este comportamiento también fue observado en un estudio realizado en

33 puntos de muestreo repartidos por toda Europa, en el que se concluye que el número de

partículas se incrementa en mayor medida que la masa en zonas contaminadas (Putaud et al.,

2002).

Page 21: Inteligencia artificial y  Aerosoles

En términos de calidad del aire se definen también cuatro parámetros fundamentales, atendiendo al

tamaño de corte de los sistemas de captación: TSP, PM10, PM2,5 y PM1

(Figura 2.1.2.1). Mientras que el término TSP (del inglés Total Suspended Particles), se refiere a

partículas totales en suspensión, PM10 (del inglés Particulated Matter) se define como la masa del

material particulado que atraviesa un cabezal de tamaño selectivo para un diámetro aerodinámico de

10 μm, con una eficiencia de corte del 50 %. La misma definición para cabezales de corte de 2,5 μm

y 1 μm se aplica para PM2,5 y PM1, respectivamente.

Desde el punto de vista ambiental y especialmente por su impacto sobre la salud, pueden

clasificarse según su tamaño como (Harrison et al., 1998):

-TSP: corresponde a las partículas menores a 100 μm

-PM10 (fracción inhalable): partículas menores de 10 μm

-PM2,5 ( fracción respirable): partículas menores de 2,5 μm, esta fracción también contiene al PM1,

que corresponde a partículas menores a 1 μm.

Revisten interés las fracciones inhalable y especialmente la respirable, ya que las partículas más

grandes que 10μm son retenidas en las vías respiratorias superiores, mientras que las de tamaño

mayor a 5 μm son retenidas en la zona nasofaríngea, las de 1 a 5 μm son depositadas en la región

traqueo bronquiolar del pulmón, que es la región media, de aquí pueden ser eliminadas del sistema

respiratorio por vehiculización en el moco y con la ayuda de los movimientos de las fibras ciliares,

pueden pasar de esta manera al sistema digestivo

para su eliminación (Klaassen et al., 1990) (Figura 2.1.3.1 ).

Figura 2.1.3.1: Distribución granulométrica del material particulado atmosférico en función del

número de partículas, la superficie y la masa (según Hasson, comunicación personal).

Las de 1 μm y menores penetran en los sacos alveolares de los pulmones, pudiendo

Page 22: Inteligencia artificial y  Aerosoles

seguir distintas vías de eliminación entre ellas por la acción de macrófagos (Soukup et al.,

2000; Peña et al., 2001).

A partir de numerosos estudios epidemiológicos llevados a cabo en las décadas de

1980 y 1990 se han obtenido suficientes datos para afirmar que existe una correlación significativa

entre la exposición al material particulado atmosférico y diversos efectos adversos sobre la salud

(Dockery et al., 1993; Schwartz, 1994 y 1996; Bascom et al., 1996;

Dockery y Pope, 1996; Brunekreef et al., 1997; Künzli et al., 2000). Los efectos de la exposición al

material particulado atmosférico se observan tanto en episodios de contaminación crónicos como

agudos (WHO, 2002). Ambos tipos de situaciones conllevan aumentos en los ingresos hospitalarios

por enfermedades respiratorias y cardiovasculares, siendo estas las principales causas de los

incrementos en la mortalidad (Schwartz, 1994;

Dockery y Pope, 1996).

El mayor riesgo para la salud de la fracción PM2,5 (fracción alveolar de PM10) se relaciona con su

mayor capacidad de penetración en el organismo (Figura 2.1.3.2 y 2.1.3.3) y mayor reactividad

química por las elevadas áreas superficiales (Figura 2.1.3.1) (USEPA,

1996; Monarca, 1997; Kittelson, 1998). Sin embargo, Abbey et al. (1999) discuten la relación entre

PM2,5 y cáncer de pulmón, al observar un mayor grado de correlación con PM10 y las emisiones

de O2. Asimismo, debido a la evidencia existente en la literatura que demuestra los efectos adversos

de la fracción gruesa PM2,5-10 (Dockery y Pope 1993; Pekkanen et al.

1997; Künzli et al., 2000) sugiere garantizar la vigencia de la normativa respecto a PM10

(WHO, 2003).