jueves, 10 de marzo de 2016


                 Teorias anteriores a Darwin






Teoría de la Evolución de Charles Darwin. Éste expuso su teoría a mediados del siglo XIX, pero a lo largo de la historia han existido diferentes teorías evolutivas previas al darwinismo
TEORÍA de la GENERACIÓN ESPONTÁNEA: Se afirmaba que todos los seres vivos surgían espontáneamente. ARISTÓTELES fue el primero en hablar de generación espontánea, diciendo que todo ser provenía espontáneamente, es decir surgía de repente a través de un Principio Activo y un Principio Pasivo. Por ejemplo decía que las ranas y los sapos surgían del lodo (Principio Pasivo), que al combinarse con las propiedades físicas y químicas del suelo, surgían estos seres (Principio Activo). Otro partidario fue JEAN BAPTISTE VAN HELMONT, que decía que todo ser surgía espontáneamente. Incluso hasta formulaba recetas para fabricar ratones en la cual se debía colocar en una habitación una camisa sucia, transpirada y se le colocaba encima granos de maíz o trigo y a los 21 días aparecían ratones.
Teoría de la panspermia: El planteamiento de la Teoría de la PANSPERMIA fue el químico sueco y Premio nobel, SVANTE ARRHENIUS, propuso en 1908 que la radiación de las estrellas podría llevar gérmenes microscópicos de un mundo a otro. Lo cual establece que la vida terrestre podría haber sido el resultado de una COLONIZACIÓN procedente de otros planetas.
La Hipótesis de la Panspermia es la que sugiere que las "semillas" o la esencia de la vida prevalecen diseminadas por todo el universo y que la vida comenzó en la Tierra gracias a la llegada de tales semillas a nuestro planeta. Existen evidencias de bacterias capaces de sobrevivir largos períodos de tiempo incluso en el espacio exterior, lo que apoyaría el mecanismo de esta hipótesis.
TEORÍA de la BIOGÉNESIS: quien comienza a derribar la teoría de la generación espontánea fue francesco redi, quien realizó un experimento con 2 frascos de vidrio de boca ancha, en uno colocó carne cruda y la dejó destapada y en el otro hizo lo mismo, pero lo tapó herméticamente y al cabo de varios días observó que al frasco que estaba destapado se había llenado de gusanos y el otro frasco que estaba tapado quedó intacto. con ello demostró que ningún ser surgía espontáneamente, sino que la aparición de gusanos era producido por las larvas que dejaban las moscas al depositarse en la carne.
pasteur: demostró que el aire es la fuente común de los microorganismos. la materia no viva se contamina a partir de las bacterias presentes en el aire, en el suelo y en los objetos. probó que los microorganismos no aparecen cuando las soluciones nutritivas son esterilizadas previamente y refutó los argumentos de needham sobre la destrucción del principio activo por el calentamiento excesivo de las sustancias con una experiencia donde usó matraces con cuello de cisne. en un matráz de vidrio colocó levadura de cerveza con azúcar, orina,  jugo de remolacha y agua de pimienta (sustancias fácilmente alterables en contacto con el aire) y luego alargó el cuello del matráz para hacerle varias curvaturas. luego hirvió el líquido durante varios minutos hasta que salió vapor por el extremo abierto del cuello. una vez frío el líquido, éste permaneció inalterado por tiempo indefinido sin aparecer microorganismos. luego cortó el cuello del matráz con un golpe de lima sin tocarlo y al cabo de algunos días empezaron a aparecer microorganismos y pudo demostrar que needham estaba equivocado. en el matráz con cuello de cisne, el cado permaneció inalterable, porque el aire que entra en contacto con él, pierde la mayoría de los microorganismos, los cuales quedan adheridos a las paredes del tubo. al quebrar el cuello del matraz, los microorganismos del aire invaden el líquido y se reproducen en abundancia.
Oparín y haldane: admiten que la atmósfera primitiva de la tierra estaba constituída por una mezcla de gases muy rica en hidrógeno y pobre en oxígeno. los elementos biogenéticos, carbono, hidrógeno y oxígeno, estaban combinados con el hidrógeno formando metano (ch4), amoníaco (nh3) y agua (h2o). los compuestos mencionados, presentes en mezclas sometidas a la acción de las radiaciones ultravioletas, dieron origen a la formación de moléculas orgánicas tales como azúcares y aminoácidos. la energía necesaria para formar dichas moléculas pudo ser la radiación ultravioleta u otras formas de energía, como las descargas eléctricas, la radiactividad o el calor de las erupciones volcánicas. se admite que este proceso debió realizarse en el agua, ya que hace 4.000 millones de años, no existía en la atmósfera la capa de ozono que filtra las radiaciones ultravioletas cuyo efecto directo sobre los seres vivos es letal. se considera que el agua de los océanos primitivos sirvió como filtro permitiendo el desarrollo de las moléculas prebióticas (coacervados). esta teoría de oparín no fueron tenidas en cuenta considerando que se contradecían con lo demostrado por pasteur acerca de la imposibilidad de originar materia orgánica a partir de la inorgánica.
Urey y miller: las teorías de oparín y haldane fueron comprobadas por urey y miller que colocaron en un recipiente una mezcla de agua, amoníaco, metano e hidrógeno y la sometieron a descargas eléctricas de alto voltaje o a las radiaciones ultravioletas al mismo tiempo que hacían circular vapor de agua. luego de un tiempo observaron en el agua la formación de aminoácidos y azúcares sencillos; se demostró de esta manera la formación de materia orgánica a partir de la inorgánica.
Creacionismo
Es la más conocida de todas y que aún se enseña en ciertos círculos, especialmente en comunidades altamente religiosas. El Creacionismo parte de la base que los humanos y toda la vida en la Tierra fueron creadas por Dios o algún ente divino. Algunos interpretan la biblia de forma textual y, la historia de la vida de en la Tierra se basa en momentos bíblicos. Para el Creacionismo de doctrina cristiana no hay evolución como tal, así que todas las especies surgieron al mismo tiempo y en su forma actual.
La gran cadena del ser
Una de las teorías evolutivas que tuvo gran apoyo es la llamada Gran cadena del ser que, si bien tiene una base creacionista, explica que las especies son una sucesión progresiva hasta llegar a su forma actual. La Gran cadena del ser tuvo su apogeo en el siglo XVIII y la evolución se daba producto a las complejidades que la naturaleza imponía a los seres.
Teoría de la Transmutación de especies
Una de las teorías evolutivas pre-darwinianas que contó con una gran aceptación científica fue la Teoría de la Transmutación de especies, que corresponde al naturalista francés Jean-Baptiste Chevalier de Lamarck. En su trabajo, a inicios del siglo XIX, Lamarck expone que no existen antepasados biológicos, y que los organismos aparecían de forma espontánea y transmutan de forma gradual y progresiva para adaptarse al ambiente, lo que luego heredan las siguientes generaciones.
Catastrofismo
George Cuvier, contemporáneo de Lamarck y cercano a sus estudios, propuso la idea del Catastrofismo. Según la teoría sucesivos desastres naturales fueron dando forma a la Tierra, y las criaturas y vegetación que vivían en ella tendían a morir. Luego de esto, nuevas formas se movían hacia otras áreas. Si bien no es muy completa, el catastrofismo pueda dar base a la selección natural.
Uniformismo
El geólogo británico Charles Lyell consideraba que el Catastrofismo tenía errores, y durante la tercera década del siglo XIX se dedicó a plantear lo que sería el Uniformismo. Para Lyell, los cambios en la Tierra no fueron tan violentos como los describió el Catastrofismo, sino más bien graduales y que se venían dando una y otra vez desde los orígenes del planeta, que creía muy antiguo.
Los cambios existentes son similares a lo que ocurrieron en un pasado, ello producto de erupciones volcánicas, terremotos y otros desastres, siendo la fuerza de la naturaleza la que llevó a los cambios.



Influencia de Darwin en la Teoria evolutiva

es indudable que la teoría de la evolución, enunciada por Charles Darwin a mediados del siglo X I X, provocó una revolución científica. Los conceptos de esta teoría, como el de selección natural, han permeado desde entonces casi todas las disciplinas científicas. Así, puede constatarse cómo han surgido áreas de estudio que van desde la evolución química prebiótica y la evolución molecular hasta la evolución tecnológica, pasando por ideas de la evolución aplicadas a las ciencias sociales y a las ciencias cognitivas. Algunas de estas “aplicaciones” han sido fructíferas, en tanto que otras han mostrado no ser apropiadas –como la idea de Marx, inspirada en Darwin, de considerar el desarrollo histórico de las formaciones sociales como una “historia natural”– o francamente grotescas –como la interpretación denominada “darwinismo social”.
Sería demasiado ambicioso pretender en un artículo como el presente exponer todas las ramificaciones y adaptaciones del darwinismo en las ciencias contemporáneas, por lo que me limitaré, a manera de ilustración, a describir la forma en que los conceptos de evolución y selección natural se han adoptado en el campo de la inteligencia artificial, en particular en el área de los algoritmos genéticos. Así que presentaré la forma en que las ideas de Darwin sobre la evolución y el mecanismo de la selección natural se aplican en la inteligencia artificial. Este enfoque tiene la ventaja de que, para que las ideas darwinistas sean funcionales, los conceptos correspondientes se definen con un alto grado de abstracción, lo que tiene la ventaja de que las ideas de evolución y adaptación alcancen un alto grado de generalidad y puedan aplicarse y compren derse tanto en los sistemas artificiales como en los naturales.
Computación evolutiva
La computación evolutiva es una rama de la inteligencia artificial que involucra problemas de optimización combinatoria. Se inspira en los mecanismos de la evolución biológica.Durante los años 50 se comenzaron a aplicar los principios de Charles Darwin en la resolución de problemas. Durante los años 60 y 70, varias corrientes de investigación independientes empezaron a formar lo que ahora se conoce como computación evolutiva.
La programación evolutiva nació en la década de 1960 y su creador fue Lawrence J. Fogel. Este desarrollo comenzó como un esfuerzo encaminado a crear inteligencia artificial basada en la evolución de máquinas de estado finitas.
Las estrategias evolutivas fueron propuestas por Ingo Rechenberg y Hans-Paul Schwefel en la década siguiente y su principal objetivo era el de optimizar parámetros.
Los algoritmos genéticos fueron propuestos por John H. Holland a mediados de esa década y su motivación inicial fue la de proponer un modelo general de proceso adaptable.
Algoritmos evolutivos
De manera general, la computación evolutiva toma como base las ideas de la evolución propuestas por Charles Darwin y los descubrimientos realizados por Gregor Mendel en el campo de la genética. Entre los principales aspectos a considerar en el diseño de algoritmos evolutivos se encuentran los siguientes:
1. La elección de una codificación (representación de las variables del problema en el algoritmo evolutivo) tiene un gran efecto en el tamaño del espacio de búsqueda y, por ende, en el tiempo y dificultad de resolución.
2. La función de desempeño (fitness function), la cual considera la función objetivo o función de la que se desea obtener el valor óptimo.
3. Los algoritmos evolutivos poseen diversos parámetros, los cuales deben ser cuidadosamente elegidos para obtener un buen desempeño y evitar problemas tales como la convergencia prematura.
A continuación se describen someramente la clase de algoritmos conocidos como “algoritmos genéticos” que, en cierta forma, ilustran concretamente las ideas de la computación evolutiva, además de su interés intrínseco en cuanto a sus múltiples aplicaciones.
Algoritmos genéticos
Un algoritmo es una serie de pasos organizados que describen el proceso que se debe seguir para dar solución a un problema específico.
En los años de 1970, de la mano de John Henry Holland, surgió una de las líneas más prometedoras de la inteligencia artificial: la de los algoritmos genéticos (A G). Son llamados así porque se inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen evolucionar una población de individuos sometiéndola a acciones aleatorias semejantes a las que actúan en la evolución biológica (mutaciones y recombinaciones genéticas), así como también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles son los individuos más adaptados –los que sobreviven– y cuáles los menos aptos –mismos que son descartados. También se denominan algoritmos evolutivos e incluyen las estrategias de evolución, la programación evolutiva y la programación genética. Un algoritmo genético es un método de búsqueda dirigida basada en probabilidad. Bajo una condición muy débil (que el algoritmo mantenga elitismo, es decir, que guarde siempre al mejor elemento de la población sin hacerle ningún cambio), se puede demostrar que el algoritmo converge en probabilidad en un grado óptimo. En otras palabras, al aumentar el número de iteraciones, la probabilidad de tener el óptimo en la población tiende a 1.

Los algoritmos genéticos establecen una analogía entre el conjunto de soluciones de un problema, llamado fenotipo, y el conjunto de individuos de una población natural, codificando la información de cada solución en una cadena, generalmente binaria, llamada cromosoma. A los símbolos que forman la cadena se les llama genes. Cuando la representación de los cromosomas se hace con cadenas de dígitos binarios, al resultado se le conoce como genotipo. Los cromosomas evolucionan a través de iteraciones, llamadas generaciones. En cada generación, los cromosomas se evalúan usando alguna medida de aptitud. Las siguientes generaciones (nuevos cromosomas), llamadas descendencia, se forman utilizando dos operadores: de cruzamiento y de mutación.
Funcionamiento de un algoritmo genético básico
Un algoritmo genético puede presentar diversas variaciones dependiendo de cómo se aplican los operadores genéticos (cruzamiento, mutación), de cómo se realiza la selección y de cómo se decide el reemplazo de los individuos para formar la nueva población. En general, consiste de los siguientes pasos:
Inicialización: Se genera aleatoriamente la población inicial, que está constituida por un conjunto de cromosomas los cuales representan las posibles soluciones del problema. En caso de no hacerlo aleatoriamente, es importante garantizar que dentro de la población inicial se tenga la diversidad estructural de estas soluciones para tener una representación de la mayor parte de la población posible o al menos evitar la convergencia prematura.
Evaluación: A cada uno de los cromosomas de esta población se aplicará la función de aptitud para saber cuán “buena” es la solución que se está codificando.
Condición de término:El algoritmo genético se deberá detener cuando se alcance la solución óptima, pero como ésta generalmente se desconoce, se deben utilizar otros criterios de detención. Normalmente se usan dos criterios: correr el AG un número máximo de iteraciones (generaciones), o detenerlo cuando no haya cambios en la población. Mientras no se cumpla la condición de término se hace lo siguiente:
Selección: Después de saber la aptitud de cada cromosoma, se procede a elegir aquellos que serán cruzados en la siguiente generación. Los cromosomas con mejor aptitud tienen mayor probabilidad de ser seleccionados.
Cruzamiento: El cruzamiento es el principal operador genético y representa la reproducción sexual; opera sobre dos cromosomas a la vez para generar dos descendientes en los que se combinan las características de ambos cromosomas padres. La mutación modifica al azar una parte del cromosoma de los individuos y permite alcanzar zonas del espacio de búsqueda que no estaban cubiertas por los individuos de la población actual.
Reemplazo: Una vez aplicados los operadores genéticos, se seleccionan los mejores individuos para conformar la población de la generación siguiente.

Como se ha dicho, los algoritmos genéticos tienen muchas aplicaciones, entre las que podemos destacar las siguientes: en el diseño automatizado, que incluye investigación en el diseño de materiales y el diseño multiobjetivo de componentes automovilísticos: mejor comportamiento ante choques, ahorros de peso, mejora de la aerodinámica, diseño de topologías de redes computacionales, aprendizaje de comportamiento de robots. En la bioinformática: alineamiento múltiple de secuencias, selección óptima de modelos matemáticos para la descripción de sistemas biológicos, construcción de horarios en grandes universidades, lo que evita los conflictos de clases, optimización de producción y distribución de energía eléctrica y un largo etcétera.

No hay comentarios:

Publicar un comentario