Teorias anteriores a Darwin
Teoría de la Evolución de Charles
Darwin. Éste expuso su teoría a mediados del siglo XIX, pero a lo largo de la
historia han existido diferentes teorías evolutivas previas al darwinismo
TEORÍA de la GENERACIÓN ESPONTÁNEA: Se afirmaba que todos los seres vivos surgían
espontáneamente. ARISTÓTELES fue el primero en hablar de generación espontánea,
diciendo que todo ser provenía espontáneamente, es decir surgía de repente a
través de un Principio Activo y un Principio Pasivo. Por ejemplo decía que las
ranas y los sapos surgían del lodo (Principio Pasivo), que al combinarse con
las propiedades físicas y químicas del suelo, surgían estos seres (Principio
Activo). Otro partidario fue JEAN BAPTISTE VAN HELMONT, que decía que todo ser
surgía espontáneamente. Incluso hasta formulaba recetas para fabricar ratones
en la cual se debía colocar en una habitación una camisa sucia, transpirada y
se le colocaba encima granos de maíz o trigo y a los 21 días aparecían ratones.
Teoría de la panspermia: El planteamiento de la Teoría de la PANSPERMIA fue el
químico sueco y Premio nobel, SVANTE ARRHENIUS, propuso en 1908 que la
radiación de las estrellas podría llevar gérmenes microscópicos de un mundo a
otro. Lo cual establece que la vida terrestre podría haber sido el resultado de
una COLONIZACIÓN procedente de otros planetas.
La Hipótesis de la Panspermia es la
que sugiere que las "semillas" o la esencia de la vida prevalecen diseminadas
por todo el universo y que la vida comenzó en la Tierra gracias a la llegada de
tales semillas a nuestro planeta. Existen evidencias de bacterias capaces de
sobrevivir largos períodos de tiempo incluso en el espacio exterior, lo que
apoyaría el mecanismo de esta hipótesis.
TEORÍA de la BIOGÉNESIS: quien comienza a derribar la teoría de la generación
espontánea fue francesco redi, quien realizó un experimento con 2 frascos de
vidrio de boca ancha, en uno colocó carne cruda y la dejó destapada y en el
otro hizo lo mismo, pero lo tapó herméticamente y al cabo de varios días
observó que al frasco que estaba destapado se había llenado de gusanos y el
otro frasco que estaba tapado quedó intacto. con ello demostró que ningún ser
surgía espontáneamente, sino que la aparición de gusanos era producido por las larvas
que dejaban las moscas al depositarse en la carne.
pasteur: demostró que el aire es la
fuente común de los microorganismos. la materia no viva se contamina a partir
de las bacterias presentes en el aire, en el suelo y en los objetos. probó que
los microorganismos no aparecen cuando las soluciones nutritivas son
esterilizadas previamente y refutó los argumentos de needham sobre la
destrucción del principio activo por el calentamiento excesivo de las
sustancias con una experiencia donde usó matraces con cuello de cisne. en un
matráz de vidrio colocó levadura de cerveza con azúcar, orina, jugo de remolacha y agua de pimienta
(sustancias fácilmente alterables en contacto con el aire) y luego alargó el
cuello del matráz para hacerle varias curvaturas. luego hirvió el líquido
durante varios minutos hasta que salió vapor por el extremo abierto del cuello.
una vez frío el líquido, éste permaneció inalterado por tiempo indefinido sin
aparecer microorganismos. luego cortó el cuello del matráz con un golpe de lima
sin tocarlo y al cabo de algunos días empezaron a aparecer microorganismos y
pudo demostrar que needham estaba equivocado. en el matráz con cuello de cisne,
el cado permaneció inalterable, porque el aire que entra en contacto con él,
pierde la mayoría de los microorganismos, los cuales quedan adheridos a las
paredes del tubo. al quebrar el cuello del matraz, los microorganismos del aire
invaden el líquido y se reproducen en abundancia.
Oparín y haldane:
admiten que la atmósfera primitiva de la tierra estaba constituída por una
mezcla de gases muy rica en hidrógeno y pobre en oxígeno. los elementos
biogenéticos, carbono, hidrógeno y oxígeno, estaban combinados con el hidrógeno
formando metano (ch4), amoníaco (nh3) y agua (h2o). los compuestos mencionados,
presentes en mezclas sometidas a la acción de las radiaciones ultravioletas,
dieron origen a la formación de moléculas orgánicas tales como azúcares y
aminoácidos. la energía necesaria para formar dichas moléculas pudo ser la
radiación ultravioleta u otras formas de energía, como las descargas
eléctricas, la radiactividad o el calor de las erupciones volcánicas. se admite
que este proceso debió realizarse en el agua, ya que hace 4.000 millones de
años, no existía en la atmósfera la capa de ozono que filtra las radiaciones
ultravioletas cuyo efecto directo sobre los seres vivos es letal. se considera
que el agua de los océanos primitivos sirvió como filtro permitiendo el
desarrollo de las moléculas prebióticas (coacervados). esta teoría de oparín no
fueron tenidas en cuenta considerando que se contradecían con lo demostrado por
pasteur acerca de la imposibilidad de originar materia orgánica a partir de la
inorgánica.
Urey y miller: las
teorías de oparín y haldane fueron comprobadas por urey y miller que colocaron
en un recipiente una mezcla de agua, amoníaco, metano e hidrógeno y la
sometieron a descargas eléctricas de alto voltaje o a las radiaciones
ultravioletas al mismo tiempo que hacían circular vapor de agua. luego de un
tiempo observaron en el agua la formación de aminoácidos y azúcares sencillos;
se demostró de esta manera la formación de materia orgánica a partir de la
inorgánica.
Creacionismo
Es la más conocida de todas y que
aún se enseña en ciertos círculos, especialmente en comunidades altamente religiosas.
El Creacionismo parte de la base que los humanos y toda la vida en la Tierra
fueron creadas por Dios o algún ente divino. Algunos interpretan la biblia de
forma textual y, la historia de la vida de en la Tierra se basa en momentos
bíblicos. Para el Creacionismo de doctrina cristiana no hay evolución como tal,
así que todas las especies surgieron al mismo tiempo y en su forma actual.
La gran cadena del ser
Una de las teorías evolutivas que
tuvo gran apoyo es la llamada Gran cadena del ser que, si bien tiene una base
creacionista, explica que las especies son una sucesión progresiva hasta llegar
a su forma actual. La Gran cadena del ser tuvo su apogeo en el siglo XVIII y la
evolución se daba producto a las complejidades que la naturaleza imponía a los
seres.
Teoría de la Transmutación de especies
Una de las teorías evolutivas
pre-darwinianas que contó con una gran aceptación científica fue la Teoría de
la Transmutación de especies, que corresponde al naturalista francés
Jean-Baptiste Chevalier de Lamarck. En su trabajo, a inicios del siglo XIX,
Lamarck expone que no existen antepasados biológicos, y que los organismos
aparecían de forma espontánea y transmutan de forma gradual y progresiva para
adaptarse al ambiente, lo que luego heredan las siguientes generaciones.
Catastrofismo
George Cuvier, contemporáneo de
Lamarck y cercano a sus estudios, propuso la idea del Catastrofismo. Según la
teoría sucesivos desastres naturales fueron dando forma a la Tierra, y las
criaturas y vegetación que vivían en ella tendían a morir. Luego de esto,
nuevas formas se movían hacia otras áreas. Si bien no es muy completa, el
catastrofismo pueda dar base a la selección natural.
Uniformismo
El geólogo británico Charles Lyell
consideraba que el Catastrofismo tenía errores, y durante la tercera década del
siglo XIX se dedicó a plantear lo que sería el Uniformismo. Para Lyell, los
cambios en la Tierra no fueron tan violentos como los describió el
Catastrofismo, sino más bien graduales y que se venían dando una y otra vez
desde los orígenes del planeta, que creía muy antiguo.
Los cambios existentes son similares
a lo que ocurrieron en un pasado, ello producto de erupciones volcánicas,
terremotos y otros desastres, siendo la fuerza de la naturaleza la que llevó a
los cambios.
Influencia de Darwin en la Teoria evolutiva
es indudable que la teoría de la
evolución, enunciada por Charles Darwin a mediados del siglo X I X, provocó una
revolución científica. Los conceptos de esta teoría, como el de selección
natural, han permeado desde entonces casi todas las disciplinas científicas.
Así, puede constatarse cómo han surgido áreas de estudio que van desde la
evolución química prebiótica y la evolución molecular hasta la evolución
tecnológica, pasando por ideas de la evolución aplicadas a las ciencias
sociales y a las ciencias cognitivas. Algunas de estas “aplicaciones” han sido
fructíferas, en tanto que otras han mostrado no ser apropiadas –como la idea de
Marx, inspirada en Darwin, de considerar el desarrollo histórico de las
formaciones sociales como una “historia natural”– o francamente grotescas –como
la interpretación denominada “darwinismo social”.
Sería demasiado ambicioso pretender
en un artículo como el presente exponer todas las ramificaciones y adaptaciones
del darwinismo en las ciencias contemporáneas, por lo que me limitaré, a manera
de ilustración, a describir la forma en que los conceptos de evolución y
selección natural se han adoptado en el campo de la inteligencia artificial, en
particular en el área de los algoritmos genéticos. Así que presentaré la forma
en que las ideas de Darwin sobre la evolución y el mecanismo de la selección
natural se aplican en la inteligencia artificial. Este enfoque tiene la ventaja
de que, para que las ideas darwinistas sean funcionales, los conceptos
correspondientes se definen con un alto grado de abstracción, lo que tiene la
ventaja de que las ideas de evolución y adaptación alcancen un alto grado de
generalidad y puedan aplicarse y compren derse tanto en los sistemas artificiales
como en los naturales.
Computación evolutiva
La computación evolutiva es una rama
de la inteligencia artificial que involucra problemas de optimización
combinatoria. Se inspira en los mecanismos de la evolución biológica.Durante
los años 50 se comenzaron a aplicar los principios de Charles Darwin en la
resolución de problemas. Durante los años 60 y 70, varias corrientes de
investigación independientes empezaron a formar lo que ahora se conoce como
computación evolutiva.
La programación evolutiva nació en
la década de 1960 y su creador fue Lawrence J. Fogel. Este desarrollo comenzó
como un esfuerzo encaminado a crear inteligencia artificial basada en la
evolución de máquinas de estado finitas.
Las estrategias evolutivas fueron
propuestas por Ingo Rechenberg y Hans-Paul Schwefel en la década siguiente y su
principal objetivo era el de optimizar parámetros.
Los algoritmos genéticos fueron
propuestos por John H. Holland a mediados de esa década y su motivación inicial
fue la de proponer un modelo general de proceso adaptable.
Algoritmos evolutivos
De manera general, la computación
evolutiva toma como base las ideas de la evolución propuestas por Charles
Darwin y los descubrimientos realizados por Gregor Mendel en el campo de la
genética. Entre los principales aspectos a considerar en el diseño de
algoritmos evolutivos se encuentran los siguientes:
1. La elección de una codificación
(representación de las variables del problema en el algoritmo evolutivo) tiene
un gran efecto en el tamaño del espacio de búsqueda y, por ende, en el tiempo y
dificultad de resolución.
2. La función de desempeño (fitness
function), la cual considera la función objetivo o función de la que se desea
obtener el valor óptimo.
3. Los algoritmos evolutivos poseen
diversos parámetros, los cuales deben ser cuidadosamente elegidos para obtener
un buen desempeño y evitar problemas tales como la convergencia prematura.
A continuación se describen
someramente la clase de algoritmos conocidos como “algoritmos genéticos” que,
en cierta forma, ilustran concretamente las ideas de la computación evolutiva,
además de su interés intrínseco en cuanto a sus múltiples aplicaciones.
Algoritmos genéticos
Un algoritmo es una serie de pasos
organizados que describen el proceso que se debe seguir para dar solución a un
problema específico.
En los años de 1970, de la mano de
John Henry Holland, surgió una de las líneas más prometedoras de la
inteligencia artificial: la de los algoritmos genéticos (A G). Son llamados así
porque se inspiran en la evolución biológica y su base genético-molecular.
Estos algoritmos hacen evolucionar una población de individuos sometiéndola a
acciones aleatorias semejantes a las que actúan en la evolución biológica (mutaciones
y recombinaciones genéticas), así como también a una selección de acuerdo con
algún criterio, en función del cual se decide cuáles son los individuos más
adaptados –los que sobreviven– y cuáles los menos aptos –mismos que son
descartados. También se denominan algoritmos evolutivos e incluyen las
estrategias de evolución, la programación evolutiva y la programación genética.
Un algoritmo genético es un método de búsqueda dirigida basada en probabilidad.
Bajo una condición muy débil (que el algoritmo mantenga elitismo, es decir, que
guarde siempre al mejor elemento de la población sin hacerle ningún cambio), se
puede demostrar que el algoritmo converge en probabilidad en un grado óptimo.
En otras palabras, al aumentar el número de iteraciones, la probabilidad de
tener el óptimo en la población tiende a 1.
Los algoritmos genéticos establecen
una analogía entre el conjunto de soluciones de un problema, llamado fenotipo,
y el conjunto de individuos de una población natural, codificando la
información de cada solución en una cadena, generalmente binaria, llamada
cromosoma. A los símbolos que forman la cadena se les llama genes. Cuando la
representación de los cromosomas se hace con cadenas de dígitos binarios, al
resultado se le conoce como genotipo. Los cromosomas evolucionan a través de
iteraciones, llamadas generaciones. En cada generación, los cromosomas se
evalúan usando alguna medida de aptitud. Las siguientes generaciones (nuevos
cromosomas), llamadas descendencia, se forman utilizando dos operadores: de
cruzamiento y de mutación.
Funcionamiento de un algoritmo genético básico
Un algoritmo genético puede
presentar diversas variaciones dependiendo de cómo se aplican los operadores
genéticos (cruzamiento, mutación), de cómo se realiza la selección y de cómo se
decide el reemplazo de los individuos para formar la nueva población. En
general, consiste de los siguientes pasos:
Inicialización: Se
genera aleatoriamente la población inicial, que está constituida por un
conjunto de cromosomas los cuales representan las posibles soluciones del
problema. En caso de no hacerlo aleatoriamente, es importante garantizar que
dentro de la población inicial se tenga la diversidad estructural de estas
soluciones para tener una representación de la mayor parte de la población
posible o al menos evitar la convergencia prematura.
Evaluación: A cada
uno de los cromosomas de esta población se aplicará la función de aptitud para
saber cuán “buena” es la solución que se está codificando.
Condición de término:El algoritmo genético se deberá detener cuando se alcance la solución
óptima, pero como ésta generalmente se desconoce, se deben utilizar otros
criterios de detención. Normalmente se usan dos criterios: correr el AG un
número máximo de iteraciones (generaciones), o detenerlo cuando no haya cambios
en la población. Mientras no se cumpla la condición de término se hace lo
siguiente:
Selección:
Después de saber la aptitud de cada cromosoma, se procede a elegir aquellos que
serán cruzados en la siguiente generación. Los cromosomas con mejor aptitud
tienen mayor probabilidad de ser seleccionados.
Cruzamiento: El
cruzamiento es el principal operador genético y representa la reproducción
sexual; opera sobre dos cromosomas a la vez para generar dos descendientes en
los que se combinan las características de ambos cromosomas padres. La mutación
modifica al azar una parte del cromosoma de los individuos y permite alcanzar zonas
del espacio de búsqueda que no estaban cubiertas por los individuos de la
población actual.
Reemplazo: Una vez aplicados los
operadores genéticos, se seleccionan los mejores individuos para conformar la
población de la generación siguiente.
Como se ha dicho, los algoritmos
genéticos tienen muchas aplicaciones, entre las que podemos destacar las
siguientes: en el diseño automatizado, que incluye investigación en el diseño
de materiales y el diseño multiobjetivo de componentes automovilísticos: mejor
comportamiento ante choques, ahorros de peso, mejora de la aerodinámica, diseño
de topologías de redes computacionales, aprendizaje de comportamiento de
robots. En la bioinformática: alineamiento múltiple de secuencias, selección
óptima de modelos matemáticos para la descripción de sistemas biológicos,
construcción de horarios en grandes universidades, lo que evita los conflictos
de clases, optimización de producción y distribución de energía eléctrica y un
largo etcétera.
No hay comentarios:
Publicar un comentario