quinta-feira, março 26, 2009
1687: El fabuloso legado de Isaac Newton
El Mundo (Madrid)
Isaac Newton, por Godfrey Kneller (1689).
por Rafael Bachiller | Madrid
Isaac Newton es uno de los mayores científicos de toda la Historia, posiblemente el físico-matemático que dejó el legado más valioso e influyente. Newton extendió las leyes terrestres de la mecánica a todo el cosmos, lo que implicaba que la naturaleza está regida por unas leyes universales. En sus Principia (1687) enunció la Ley de la Gravitación Universal y las leyes del movimiento. En su obra Opticks (1704) estudió la naturaleza de la luz, formuló los principios de la óptica y la teoría del color.
También desarrolló el cálculo matemático integral y diferencial. En 1672 presentó a la Royal Society el primer telescopio reflector de utilidad práctica que tendría una trascendencia enorme en el desarrollo ulterior de la Astronomía.
De granjero a presidente de la Royal Society
Isaac Newton nació, póstumo y prematuro, en Woolsthorpe (Reino Unido) el 25 de diciembre de 1642 (en el calendario Juliano). Al ser un estudiante mediocre, su madre viuda previó para él un futuro de granjero, pero pronto se dio cuenta de que el joven Newton desatendía las pequeñas responsabilidades que se le asignaban en la granja para estudiar o sumirse en profundas meditaciones. Cuando cumplió 18 años, su madre accedió a enviarle al Trinity College (Cambridge), donde se orientó hacia las matemáticas. A partir de su graduación en 1665 obtuvo diversos grados académicos hasta que fue nombrado profesor de matemáticas en 1669.
Es en esta época cuando se inician sus descubrimientos. Ejerció en ese puesto durante 26 años. En 1671 fue designado miembro de la Royal Society. Fue parlamentario, representante del profesorado de Cambridge ante la Cámara de los Comunes, entre 1688 y 1689. En 1696 obtuvo el cargo de Guardián de la Moneda (Warden of the Mint) para pasar a ser Director de la Moneda (Master of the Mint) en 1699, puesto en el que permaneció hasta el final de sus días. En 1703 fue nombrado presidente de la Royal Society, y en 1705 fue nombrado caballero por la reina Ana. Newton fue reelegido presidente de la Royal Society de manera sucesiva hasta su muerte en 1727.
Los telescopios refractores, como los utilizados por Galileo y Huygens, adolecían de un severo problema técnico: la aberración cromática. En efecto, dependiendo del vidrio, las lentes enfocan las diferentes longitudes de onda a diferentes distancias, de forma que la imagen de una estrella puntual aparece distorsionada en una serie de anillos concéntricos multicolores. Para aminorar la aberración cromática se construían telescopios muy largos que conllevaban muchos problemas técnicos. Por ejemplo, el telescopio de Johannes Hevelius (1611-87) medía 47 metros y tenía que ser utilizado con la ayuda de una grúa.
Newton dio un revolucionario impulso al desarrollo técnico del telescopio cuando en 1672 presentó ante la Royal Society de Londres el primer telescopio reflector de utilidad práctica que estaba constituido por un espejo de tan sólo unos 3 centímetros de diámetro ubicado en el interior de un tubo de 15 centímetros de longitud. Al no contener lentes, tal telescopio no sufría de aberración cromática y podía ser tan potente como un refractor 10 veces más largo. Este diseño podía, por tanto, resolver los problemas técnicos inherentes a los refractores.
La tecnología no estuvo lista para construir grandes telescopios reflectores hasta los tiempos de William Herschel (1738-1822), astrónomo que construyó los primeros telescopios realmente grandes: el mayor de los construidos por él tuvo un espejo de 1,40 metros y una focal de unos 12 metros.
Los 'Principia' (1687)
En su obra más importante, los Principia (1687), Newton estableció las tres leyes que rigen el movimiento de los cuerpos. También estudió la fuerza existente entre la Tierra y la Luna, una fuerza que resulta ser proporcional a cada una de las masas e inversamente proporcional al cuadrado de la distancia entre ambos cuerpos. Newton tuvo la genialidad de generalizar esta ley para todos los cuerpos del universo estableciendo así la Ley de la Gravitación Universal. Las leyes de Kepler, cuyo significado no se había comprendido hasta entonces, aparecen entonces como deducciones inmediatas de la Ley de la Gravitación.
En su obra Opticks (1704) formuló la teoría corpuscular de la luz y la teoría del color. Un libro escrito de manera similar a los tratados de geometría (con definiciones, axiomas, proposiciones, etc.) y que estudia, por tanto, la naturaleza de la luz de una manera muy racional. También utiliza numerosas comparaciones con resultados de experimentos.
Una de las grandes contribuciones de Newton fue la introducción del cálculo diferencial e integral. El filósofo y matemático alemán Gottfried Leibniz (1646-1716) también descubrió el cálculo infinitesimal de manera completamente independiente de Newton y ambos grandes hombres se embarcaron en una desgraciada controversia sobre la prioridad de la invención, una controversia que se prolongó hasta la muerte de Leibniz en 1716.
Curiosidades...
* El Newton (unidad de fuerza), las leyes de Newton, el disco de Newton, el binomio de Newton, el polígono de Newton, la serie de Newton, la notación de Newton,... son algunos ejemplos de la vigencia de su legado en la ciencia contemporánea.
* En la cumbre de la gloria, Newton solía contar que de niño había sido muy desatento en clase lo que le hacía ocupar el último puesto. Se aplicó en los estudios para vengarse de un puñetazo que un compañero más adelantado le dio en el estómago. El joven Isaac no sólo aventajó a su compañero rápidamente sino que se convirtió en el primero de su escuela.
* El reflector de Newton fue mejorado después por un misterioso personaje del que apenas se sabe nada (ni siquiera su nombre completo): Cassegrain. Sin embargo el telescopio denominado 'Cassegrain', constituido por dos espejos que enfocan la luz tras el primero de ellos, ha sido el telescopio más ampliamente utilizado hasta la actualidad.
* Fue el propio Newton quien relató que la inspiración para la teoría de la gravedad le vino, en 1665, al ver caer una manzana en su jardín de Woolsthorpe, el sitio donde nació. Hay indicios de que tal manzano existió realmente al menos hasta 1777. Las manzanas eran de la variedad 'flor de Kent' que, por su calidad mediocre, no se cultiva hoy en día. Se conservan, no obstante, unos cuantos manzanos de esta variedad y de casi todos ellos se dice que son descendientes del de Newton. Entre ellos hay uno en el Trinity College en Cambridge, cerca de la habitación en que vivió Newton, y otro en la colección nacional de árboles frutales de Brogdale (Kent).
* "Si he visto más lejos, es porque estoy aupado sobre los hombros de gigantes". Esta frase utilizada en una carta al científico Robert Hooke, suele atribuírsele a Newton como si fuese su autor original. Sin embargo la cita original se debe probablemente al filósofo del siglo XII Bernard de Chartres y fue muy utilizada por diferentes pensadores a lo largo de los siglos siguientes.
Isaac Newton, por Godfrey Kneller (1689).
por Rafael Bachiller | Madrid
Isaac Newton es uno de los mayores científicos de toda la Historia, posiblemente el físico-matemático que dejó el legado más valioso e influyente. Newton extendió las leyes terrestres de la mecánica a todo el cosmos, lo que implicaba que la naturaleza está regida por unas leyes universales. En sus Principia (1687) enunció la Ley de la Gravitación Universal y las leyes del movimiento. En su obra Opticks (1704) estudió la naturaleza de la luz, formuló los principios de la óptica y la teoría del color.
También desarrolló el cálculo matemático integral y diferencial. En 1672 presentó a la Royal Society el primer telescopio reflector de utilidad práctica que tendría una trascendencia enorme en el desarrollo ulterior de la Astronomía.
De granjero a presidente de la Royal Society
Isaac Newton nació, póstumo y prematuro, en Woolsthorpe (Reino Unido) el 25 de diciembre de 1642 (en el calendario Juliano). Al ser un estudiante mediocre, su madre viuda previó para él un futuro de granjero, pero pronto se dio cuenta de que el joven Newton desatendía las pequeñas responsabilidades que se le asignaban en la granja para estudiar o sumirse en profundas meditaciones. Cuando cumplió 18 años, su madre accedió a enviarle al Trinity College (Cambridge), donde se orientó hacia las matemáticas. A partir de su graduación en 1665 obtuvo diversos grados académicos hasta que fue nombrado profesor de matemáticas en 1669.
Es en esta época cuando se inician sus descubrimientos. Ejerció en ese puesto durante 26 años. En 1671 fue designado miembro de la Royal Society. Fue parlamentario, representante del profesorado de Cambridge ante la Cámara de los Comunes, entre 1688 y 1689. En 1696 obtuvo el cargo de Guardián de la Moneda (Warden of the Mint) para pasar a ser Director de la Moneda (Master of the Mint) en 1699, puesto en el que permaneció hasta el final de sus días. En 1703 fue nombrado presidente de la Royal Society, y en 1705 fue nombrado caballero por la reina Ana. Newton fue reelegido presidente de la Royal Society de manera sucesiva hasta su muerte en 1727.
Los telescopios refractores, como los utilizados por Galileo y Huygens, adolecían de un severo problema técnico: la aberración cromática. En efecto, dependiendo del vidrio, las lentes enfocan las diferentes longitudes de onda a diferentes distancias, de forma que la imagen de una estrella puntual aparece distorsionada en una serie de anillos concéntricos multicolores. Para aminorar la aberración cromática se construían telescopios muy largos que conllevaban muchos problemas técnicos. Por ejemplo, el telescopio de Johannes Hevelius (1611-87) medía 47 metros y tenía que ser utilizado con la ayuda de una grúa.
Newton dio un revolucionario impulso al desarrollo técnico del telescopio cuando en 1672 presentó ante la Royal Society de Londres el primer telescopio reflector de utilidad práctica que estaba constituido por un espejo de tan sólo unos 3 centímetros de diámetro ubicado en el interior de un tubo de 15 centímetros de longitud. Al no contener lentes, tal telescopio no sufría de aberración cromática y podía ser tan potente como un refractor 10 veces más largo. Este diseño podía, por tanto, resolver los problemas técnicos inherentes a los refractores.
La tecnología no estuvo lista para construir grandes telescopios reflectores hasta los tiempos de William Herschel (1738-1822), astrónomo que construyó los primeros telescopios realmente grandes: el mayor de los construidos por él tuvo un espejo de 1,40 metros y una focal de unos 12 metros.
Los 'Principia' (1687)
En su obra más importante, los Principia (1687), Newton estableció las tres leyes que rigen el movimiento de los cuerpos. También estudió la fuerza existente entre la Tierra y la Luna, una fuerza que resulta ser proporcional a cada una de las masas e inversamente proporcional al cuadrado de la distancia entre ambos cuerpos. Newton tuvo la genialidad de generalizar esta ley para todos los cuerpos del universo estableciendo así la Ley de la Gravitación Universal. Las leyes de Kepler, cuyo significado no se había comprendido hasta entonces, aparecen entonces como deducciones inmediatas de la Ley de la Gravitación.
En su obra Opticks (1704) formuló la teoría corpuscular de la luz y la teoría del color. Un libro escrito de manera similar a los tratados de geometría (con definiciones, axiomas, proposiciones, etc.) y que estudia, por tanto, la naturaleza de la luz de una manera muy racional. También utiliza numerosas comparaciones con resultados de experimentos.
Una de las grandes contribuciones de Newton fue la introducción del cálculo diferencial e integral. El filósofo y matemático alemán Gottfried Leibniz (1646-1716) también descubrió el cálculo infinitesimal de manera completamente independiente de Newton y ambos grandes hombres se embarcaron en una desgraciada controversia sobre la prioridad de la invención, una controversia que se prolongó hasta la muerte de Leibniz en 1716.
Curiosidades...
* El Newton (unidad de fuerza), las leyes de Newton, el disco de Newton, el binomio de Newton, el polígono de Newton, la serie de Newton, la notación de Newton,... son algunos ejemplos de la vigencia de su legado en la ciencia contemporánea.
* En la cumbre de la gloria, Newton solía contar que de niño había sido muy desatento en clase lo que le hacía ocupar el último puesto. Se aplicó en los estudios para vengarse de un puñetazo que un compañero más adelantado le dio en el estómago. El joven Isaac no sólo aventajó a su compañero rápidamente sino que se convirtió en el primero de su escuela.
* El reflector de Newton fue mejorado después por un misterioso personaje del que apenas se sabe nada (ni siquiera su nombre completo): Cassegrain. Sin embargo el telescopio denominado 'Cassegrain', constituido por dos espejos que enfocan la luz tras el primero de ellos, ha sido el telescopio más ampliamente utilizado hasta la actualidad.
* Fue el propio Newton quien relató que la inspiración para la teoría de la gravedad le vino, en 1665, al ver caer una manzana en su jardín de Woolsthorpe, el sitio donde nació. Hay indicios de que tal manzano existió realmente al menos hasta 1777. Las manzanas eran de la variedad 'flor de Kent' que, por su calidad mediocre, no se cultiva hoy en día. Se conservan, no obstante, unos cuantos manzanos de esta variedad y de casi todos ellos se dice que son descendientes del de Newton. Entre ellos hay uno en el Trinity College en Cambridge, cerca de la habitación en que vivió Newton, y otro en la colección nacional de árboles frutales de Brogdale (Kent).
* "Si he visto más lejos, es porque estoy aupado sobre los hombros de gigantes". Esta frase utilizada en una carta al científico Robert Hooke, suele atribuírsele a Newton como si fuese su autor original. Sin embargo la cita original se debe probablemente al filósofo del siglo XII Bernard de Chartres y fue muy utilizada por diferentes pensadores a lo largo de los siglos siguientes.
segunda-feira, março 23, 2009
Científicos británicos quieren ser los primeros en crear sangre sintética
ABC (Madrid)
Científicos británicos quieren ser los primeros en producir cantidades ilimitadas de sangre "sintética" a partir de células madre embrionarias para su uso en transfusiones de emergencia y sin riesgo de infección para el paciente. En los próximos días se anunciará un gran proyecto de investigación que se pretende que culmine dentro de tres años en las primeras transfusiones a voluntarios con sangre obtenida de embriones sobrantes de la fecundación in vitro, según informa el diario "The Independent".
La sangre se utilizaría para salvar lo mismo vidas de víctimas de accidentes de tráfico que de soldados en el frente de batalla y representaría una auténtica revolución en los servicios de transfusión sanguínea, que dependen actualmente de los donantes.
En el proyecto participan la sección de Sangre y Trasplantes del Servicio Nacional de Salud, el Servicio Nacional de Transfusión de Escocia y el Wellcome Trust, la mayor organización médica de carácter benéfico del mundo.
O negativoLos científicos estudiarán los embriones humanos sobrantes de la fecundación in vitro y tratarán de encontrar los genéticamente programados para desarrollar sangre del grupo "O negativo", que puede transfundirse a cualquier persona sin temor a rechazos. Ese grupo sanguíneo es relativamente raro, corresponde a aproximadamente un 7 por ciento de la población, pero podría producirse en cantidades ilimitadas a partir de células madre por la capacidad que tienen éstas de desarrollarse indefinidamente en el laboratorio.
El objetivo de los científicos es hacer que las células embrionarias se conviertan en glóbulos rojos portadores de oxígeno para transfusiones de urgencia. Esa sangre tendría además la ventaja, según los expertos, de que no presentaría ningún riesgo de infección por el virus del sida, la hepatitis o la variante humana de la enfermedad de las "vacas locas".
Tres millones de eurosSe cree que el Wellcome Trust se ha comprometido a destinar más de 3 millones de euros al proyecto, que se beneficiará también de las aportaciones de los servicios de transfusión de Escocia, Inglaterra, Gales y posiblemente también de Irlanda. Un portavoz de ese trust dijo que en este momento se están resolviendo ciertos asuntos legales entre las partes implicadas, pero que se hará un anuncio próximamente.
Al frente del proyecto está el profesor Marc Turner, de la Universidad de Edimburgo, que dirige el Servicio Nacional Escocés de Transfusiones. Turner ha participado en investigaciones destinadas a garantizar que la sangre utilizada en transfusiones está libre del agente infeccioso causante de la variante humana de la enfermedad de las vacas locas. Se cree que varias personas que sufren esa enfermedad la han contraído por culpa de las transfusiones.
Según el periódico, en el proyecto participan también científicos del Centro de Medicina Regenerativa de la Universidad de Edimburgo así como Roslin Cells, una pequeña empresa surgida del Instituto Roslin, en el que se clonó en 1996 a la oveja Dolly. Científicos de otros países, entre ellos Suecia, Francia y Australia, están también trabajando en el desarrollo de sangre a partir de células embrionarias.
El año pasado, una compañía de biotecnología estadounidense, Advanced Cell Technology, anunció que había conseguido producir miles de millones de glóbulos rojos a partir de ese tipo de células. Sin embargo, esos trabajos se vieron paralizados por la prohibición dictada por la anterior Casa Blanca contra las investigaciones con células embrionarias, aunque el nuevo presidente, Barack Obama, ha rectificado ahora.
Científicos británicos quieren ser los primeros en producir cantidades ilimitadas de sangre "sintética" a partir de células madre embrionarias para su uso en transfusiones de emergencia y sin riesgo de infección para el paciente. En los próximos días se anunciará un gran proyecto de investigación que se pretende que culmine dentro de tres años en las primeras transfusiones a voluntarios con sangre obtenida de embriones sobrantes de la fecundación in vitro, según informa el diario "The Independent".
La sangre se utilizaría para salvar lo mismo vidas de víctimas de accidentes de tráfico que de soldados en el frente de batalla y representaría una auténtica revolución en los servicios de transfusión sanguínea, que dependen actualmente de los donantes.
En el proyecto participan la sección de Sangre y Trasplantes del Servicio Nacional de Salud, el Servicio Nacional de Transfusión de Escocia y el Wellcome Trust, la mayor organización médica de carácter benéfico del mundo.
O negativoLos científicos estudiarán los embriones humanos sobrantes de la fecundación in vitro y tratarán de encontrar los genéticamente programados para desarrollar sangre del grupo "O negativo", que puede transfundirse a cualquier persona sin temor a rechazos. Ese grupo sanguíneo es relativamente raro, corresponde a aproximadamente un 7 por ciento de la población, pero podría producirse en cantidades ilimitadas a partir de células madre por la capacidad que tienen éstas de desarrollarse indefinidamente en el laboratorio.
El objetivo de los científicos es hacer que las células embrionarias se conviertan en glóbulos rojos portadores de oxígeno para transfusiones de urgencia. Esa sangre tendría además la ventaja, según los expertos, de que no presentaría ningún riesgo de infección por el virus del sida, la hepatitis o la variante humana de la enfermedad de las "vacas locas".
Tres millones de eurosSe cree que el Wellcome Trust se ha comprometido a destinar más de 3 millones de euros al proyecto, que se beneficiará también de las aportaciones de los servicios de transfusión de Escocia, Inglaterra, Gales y posiblemente también de Irlanda. Un portavoz de ese trust dijo que en este momento se están resolviendo ciertos asuntos legales entre las partes implicadas, pero que se hará un anuncio próximamente.
Al frente del proyecto está el profesor Marc Turner, de la Universidad de Edimburgo, que dirige el Servicio Nacional Escocés de Transfusiones. Turner ha participado en investigaciones destinadas a garantizar que la sangre utilizada en transfusiones está libre del agente infeccioso causante de la variante humana de la enfermedad de las vacas locas. Se cree que varias personas que sufren esa enfermedad la han contraído por culpa de las transfusiones.
Según el periódico, en el proyecto participan también científicos del Centro de Medicina Regenerativa de la Universidad de Edimburgo así como Roslin Cells, una pequeña empresa surgida del Instituto Roslin, en el que se clonó en 1996 a la oveja Dolly. Científicos de otros países, entre ellos Suecia, Francia y Australia, están también trabajando en el desarrollo de sangre a partir de células embrionarias.
El año pasado, una compañía de biotecnología estadounidense, Advanced Cell Technology, anunció que había conseguido producir miles de millones de glóbulos rojos a partir de ese tipo de células. Sin embargo, esos trabajos se vieron paralizados por la prohibición dictada por la anterior Casa Blanca contra las investigaciones con células embrionarias, aunque el nuevo presidente, Barack Obama, ha rectificado ahora.
terça-feira, março 17, 2009
La NASA halla agua salada en estado líquido en Marte
ABC (Madrid)
Investigadores de la NASA han confirmado, por primera vez, la presencia de agua salada en estado líquido en Marte sobre una de las patas del aparato 'Phoenix Lander' que se encuentra en misión de exploración en el Planeta Rojo y señalan que al ser el agua líquida un "ingrediente esencial para la vida", este descubrimiento tiene implicaciones "importantes" para muchas áreas de la exploración planetaria, incluida la habitabilidad de la zona.
Hasta el momento, los científicos creían que el agua "existía en Marte sólo como hielo o vapor" debido a las bajas temperaturas y a la presión atmosférica en el planeta y consideraban que, con el clima actual que presenta, "el hielo podía sublimarse o vaporizarse, pero no que llegara a derretirse". En este sentido, las investigaciones actuales han determinado que esas presunciones "pueden ser incorrectas".
Así, establecen que la fluctuación de temperatura en la región ártica de Marte, donde descendió el Phoenix, y las sales en el suelo "podrían haber creado depósitos de agua demasiado salina como para congelarse en el clima del sitio del descenso". Además, han hallado en el aparato evidencia de sales percloradas que tienen temperaturas de congelamiento de, aproximadamente, -68 y -76 grados Celsius, respectivamente.
Pruebas adicionalesEn este sentido, los cálculos termodinámicos ofrecen pruebas adicionales de que "puede existir agua salada líquida en el sitio donde descendió el Phoenix y en otras partes del planeta". Los cálculos también predicen una tasa de crecimiento de la gota coherente con lo que se observó y afirman que "es imposible que el hielo se sublime del suelo frío solo bajo la extensión de la pata del aparato y que se deposite sobre una extensión con temperatura más alta, como había sugerido una hipótesis anterior".
Esta misión ha sido encabezada por el Laboratorio de Propulsión de la NASA y la Universidad de Arizona. Entre sus descubrimientos preliminares este mecanismo ya verificó "que existe hielo de agua justo por debajo de la superficie de Marte". Después, al aparato explorador envió más de 25.000 fotografías y desplegó el "primer microscopio de fuerza atómica usado afuera de la Tierra".
El coinvestigador de la misión, Nilton Renno, presentará estas conclusiones el próximo 23 de marzo en la 'Conferencia de Ciencia Lunar y Planetaria de Houston', destacando que el Phoenix es el "primer aparato de exploración marciana que documenta la existencia de un suelo moderadamente alcalino y de sales percloradas y que observó la caída de nieve desde las nubes en Marte".
Investigadores de la NASA han confirmado, por primera vez, la presencia de agua salada en estado líquido en Marte sobre una de las patas del aparato 'Phoenix Lander' que se encuentra en misión de exploración en el Planeta Rojo y señalan que al ser el agua líquida un "ingrediente esencial para la vida", este descubrimiento tiene implicaciones "importantes" para muchas áreas de la exploración planetaria, incluida la habitabilidad de la zona.
Hasta el momento, los científicos creían que el agua "existía en Marte sólo como hielo o vapor" debido a las bajas temperaturas y a la presión atmosférica en el planeta y consideraban que, con el clima actual que presenta, "el hielo podía sublimarse o vaporizarse, pero no que llegara a derretirse". En este sentido, las investigaciones actuales han determinado que esas presunciones "pueden ser incorrectas".
Así, establecen que la fluctuación de temperatura en la región ártica de Marte, donde descendió el Phoenix, y las sales en el suelo "podrían haber creado depósitos de agua demasiado salina como para congelarse en el clima del sitio del descenso". Además, han hallado en el aparato evidencia de sales percloradas que tienen temperaturas de congelamiento de, aproximadamente, -68 y -76 grados Celsius, respectivamente.
Pruebas adicionalesEn este sentido, los cálculos termodinámicos ofrecen pruebas adicionales de que "puede existir agua salada líquida en el sitio donde descendió el Phoenix y en otras partes del planeta". Los cálculos también predicen una tasa de crecimiento de la gota coherente con lo que se observó y afirman que "es imposible que el hielo se sublime del suelo frío solo bajo la extensión de la pata del aparato y que se deposite sobre una extensión con temperatura más alta, como había sugerido una hipótesis anterior".
Esta misión ha sido encabezada por el Laboratorio de Propulsión de la NASA y la Universidad de Arizona. Entre sus descubrimientos preliminares este mecanismo ya verificó "que existe hielo de agua justo por debajo de la superficie de Marte". Después, al aparato explorador envió más de 25.000 fotografías y desplegó el "primer microscopio de fuerza atómica usado afuera de la Tierra".
El coinvestigador de la misión, Nilton Renno, presentará estas conclusiones el próximo 23 de marzo en la 'Conferencia de Ciencia Lunar y Planetaria de Houston', destacando que el Phoenix es el "primer aparato de exploración marciana que documenta la existencia de un suelo moderadamente alcalino y de sales percloradas y que observó la caída de nieve desde las nubes en Marte".
Tres nuevas especies de bacterias... ¿extraterrestres?
ABC (Madrid)
por JOSÉ MANUEL NIEVES | MADRID
Tres nuevas especies de bacteria, previamente desconocidas en nuestro planeta, acaban de ser descubiertas en la estratosfera terrestre, a una altitud comprendida entre 20 y 41 km, por un equipo de científicos de la Organizacïón India de Investigaciones Espaciales (ISRO).
Capaces de sobrevivir a esa altura, donde la atmósfera se confunde con el espacio exterior, las tres han demostrado ser extraaordinariamente resistentes a la radiación ultravioleta, lo que abre diversas interrogantes sobre su procedencia.
Bautizadas como Janibacter hoylei, Bacillus isronensis y Bacillus aryabhata, los tres organismos fueron recolectados por medio de dieciséis cilindros de acero, esterilizados previamente, que recolectaron muestras de aire a diferentes alturas entre los 20 y los 41 km y fueron soltados después en paracaïdas para ser recogidos y analizados de forma independiente por dos grupos de cientïficos del Centro de Biologïa Celular y Molecular de Hyderabad y del Centro Nacional de Biologïa Celular indio.
Ambos laboratorios llegaron a las mismas conclusiones, y descartaron que las bacterias pudieran proceder de algún tipo de contaminación de los cilindros con organismos terrestres.
Doce colonias bacterianas diferentesEn total, fueron detectadas doce colonias bacterianas diferentes, nueve de las cuales presentaban más de un 98 por ciento de similitud genética con otras previamente conocidas. Pero tres de esas colonias, llamadas PVAS-1, B3 W22 y B8 W22, resultaaron ser completamente nuevas.
Los investigadores al frente del experimento, que fue dirigido por U. R. Rao y P. M. Bhargava, no descartan que las bacterias puedan proceder del espacio exterior aunque, según sus palabras "el presente estudio no puede establecer de forma concluyente el origen extraterrestre de estos microorganismos".
Sin embargo, sí que consideran su descubrimiento lo suficientemente importante como para animar a la comunidad científica internacional a que siga investigando y "continúe el trabajo de exploración sobre el origen de la vida".
por JOSÉ MANUEL NIEVES | MADRID
Tres nuevas especies de bacteria, previamente desconocidas en nuestro planeta, acaban de ser descubiertas en la estratosfera terrestre, a una altitud comprendida entre 20 y 41 km, por un equipo de científicos de la Organizacïón India de Investigaciones Espaciales (ISRO).
Capaces de sobrevivir a esa altura, donde la atmósfera se confunde con el espacio exterior, las tres han demostrado ser extraaordinariamente resistentes a la radiación ultravioleta, lo que abre diversas interrogantes sobre su procedencia.
Bautizadas como Janibacter hoylei, Bacillus isronensis y Bacillus aryabhata, los tres organismos fueron recolectados por medio de dieciséis cilindros de acero, esterilizados previamente, que recolectaron muestras de aire a diferentes alturas entre los 20 y los 41 km y fueron soltados después en paracaïdas para ser recogidos y analizados de forma independiente por dos grupos de cientïficos del Centro de Biologïa Celular y Molecular de Hyderabad y del Centro Nacional de Biologïa Celular indio.
Ambos laboratorios llegaron a las mismas conclusiones, y descartaron que las bacterias pudieran proceder de algún tipo de contaminación de los cilindros con organismos terrestres.
Doce colonias bacterianas diferentesEn total, fueron detectadas doce colonias bacterianas diferentes, nueve de las cuales presentaban más de un 98 por ciento de similitud genética con otras previamente conocidas. Pero tres de esas colonias, llamadas PVAS-1, B3 W22 y B8 W22, resultaaron ser completamente nuevas.
Los investigadores al frente del experimento, que fue dirigido por U. R. Rao y P. M. Bhargava, no descartan que las bacterias puedan proceder del espacio exterior aunque, según sus palabras "el presente estudio no puede establecer de forma concluyente el origen extraterrestre de estos microorganismos".
Sin embargo, sí que consideran su descubrimiento lo suficientemente importante como para animar a la comunidad científica internacional a que siga investigando y "continúe el trabajo de exploración sobre el origen de la vida".
segunda-feira, março 16, 2009
Les mathématiques impuissantes
Le Temps (Genève)
por Jacques Neirynck
Jacques Neirynck, professeur honoraire à l’EPFL, dit la crise est due en partie au fait que les décideurs des banques ont placé une confiance exagérée dans la modélisation mathématique
Une cause de la crise rarement évoquée est la confiance exagérée des décideurs à l’égard des concepteurs des nouveaux produits. Les banques ont recruté de nombreux mathématiciens qui ont créé selon leur pente naturelle des modèles mathématiques. Mais leurs résultats ont été mal interprétés par des décideurs, inconscients du risque de toute modélisation. Un juriste ou un économiste de formation est tenté d’attribuer une valeur magique aux mathématiques, dans la mesure même où il s’en est écarté dès son plus jeune âge.
La modélisation de la finance a été élaborée à partir des années 1950 par des économistes américains (Markowitz, Scholes, Black, Merton, Samuelson). Elle est construite à l’imitation du mouvement brownien: des grains de pollen dans l’eau semblent se déplacer en tous sens, mais en fait ils oscillent autour de leur position de départ, de sorte que leurs mouvements aléatoires sont à peu près réguliers. La théorie financière classique postule que la bourse est régie par le même mécanisme.
Ce modèle s’est révélé incapable de prévoir un krach boursier rapide et soudain. D’autres modèles, plus pessimistes que le modèle brownien, prédisaient des risques jusqu’à cinq fois plus élevés. Mais pouvait-on s’y fier pour autant? Non, car il n’y a d’autre modèle parfait de la réalité que la réalité elle-même. Tout modèle est fondé sur des hypothèses simplificatrices. Mais il peut nourrir la conviction du décideur que les marchés se comportent de façon rationnelle et que tout le problème consiste à découvrir cette rationalité.
La modélisation mathématique de la réalité fut initiée voici quatre siècles par Kepler, Galilée et Newton à partir de la mécanique céleste, c’est-à-dire dans un domaine bien choisi où de simples relations entre masse, distance, vitesse, accélération et force permettent de décrire le mouvement des planètes et de le prédire sur le long terme avec une précision prodigieuse. Les physiciens du XIXe siècle parvinrent ensuite à modéliser les phénomènes optiques, électromagnétiques, thermodynamiques. Ces succès spectaculaires finirent par accréditer l’illusion généralisée que la Nature, obéissant à des lois éternelles, n’est qu’un automate prévisible indéfiniment.
Au début du XXe siècle, cette méprise subit un premier démenti avec la physique des particules: à cette échelle il existe un hasard véritable tel que l’on ne peut ni tout mesurer, ni tout prédire. En 1960, nouvelle déconvenue: les équations gouvernant la météorologie sont déterministes, c’est-à-dire qu’elles ne comportent aucun facteur aléatoire. Néanmoins elles ne permettent pas de calculer des prévisions à long terme, à cause de la sensibilité des calculs numériques aux mesures initiales, le célèbre effet papillon. En théorie, le futur du système est prévisible, en pratique il est impossible de le calculer.
Si les décideurs des banques avaient connu ces relatives déconvenues de la modélisation, ils se seraient davantage méfiés des résultats fournis par les mathématiciens. Ils doivent intérioriser maintenant les limites intrinsèques de la méthode, qu’ils croyaient magique. Il y en a trois: la nature schématique de tout modèle; son caractère artificiel; sa limitation aux facteurs quantifiables.
Tout d’abord, un bon modèle n’essaie surtout pas de tout contenir. Il ne vise pas la plus grande fidélité au réel, sinon il est compliqué et inutilisable. Il pratique une infidélité délibérée, en ne conservant que quelques grandeurs significatives. De même, une carte topographique, modèle géométrique en deux dimensions de notre globe, n’est utile que si elle schématise en retenant ce qui intéresse spécifiquement un usager particulier, selon qu’il est géomètre du cadastre, randonneur, automobiliste, géologue ou pilote, et en négligeant tout le reste.
Ensuite, un modèle n’est rien de plus qu’une construction mentale de son inventeur. Il n’existe pas des «lois de la Nature» à découvrir, qui auraient été inscrites dans le marbre par le Créateur. Dans le cas des sciences naturelles, cette invention est facilitée par deux circonstances favorables. On suppose que les modèles imaginés sont universels, valides dans tout l’Univers, et éternels, indépendants des siècles qui s’écoulent. C’est une facilité considérable pour les physiciens. En revanche, les modélisateurs d’un phénomène humain comme la bourse ne peuvent rien supposer de la sorte; ils doivent considérer que la réalité financière est fluctuante dans le temps et dans l’espace.
Enfin, la science, au sens fort du terme, n’explique pas tout, mais elle établit seulement des relations entre quelques grandeurs mesurables. Elle est impuissante par sa nature à prédire le comportement des humains. C’est clair pour le déclenchement d’une révolution, cela devrait l’être pour un krach boursier, qui ressort davantage à la sociologie et à la psychologie. Ces disciplines n’ont pas la prétention de quantifier l’objet de leur étude et encore moins de prédire le futur.
La solution définitive ne consiste donc pas à affiner, revoir et corriger fébrilement les modèles mathématiques en s’imaginant que l’on finira par trouver «le» modèle. Cela ne veut pas dire davantage qu’il faille abandonner cette méthode en finance. Les décideurs doivent seulement appréhender la nature de la méthode et se garder de l’appliquer aveuglément en dehors de ses limites.
por Jacques Neirynck
Jacques Neirynck, professeur honoraire à l’EPFL, dit la crise est due en partie au fait que les décideurs des banques ont placé une confiance exagérée dans la modélisation mathématique
Une cause de la crise rarement évoquée est la confiance exagérée des décideurs à l’égard des concepteurs des nouveaux produits. Les banques ont recruté de nombreux mathématiciens qui ont créé selon leur pente naturelle des modèles mathématiques. Mais leurs résultats ont été mal interprétés par des décideurs, inconscients du risque de toute modélisation. Un juriste ou un économiste de formation est tenté d’attribuer une valeur magique aux mathématiques, dans la mesure même où il s’en est écarté dès son plus jeune âge.
La modélisation de la finance a été élaborée à partir des années 1950 par des économistes américains (Markowitz, Scholes, Black, Merton, Samuelson). Elle est construite à l’imitation du mouvement brownien: des grains de pollen dans l’eau semblent se déplacer en tous sens, mais en fait ils oscillent autour de leur position de départ, de sorte que leurs mouvements aléatoires sont à peu près réguliers. La théorie financière classique postule que la bourse est régie par le même mécanisme.
Ce modèle s’est révélé incapable de prévoir un krach boursier rapide et soudain. D’autres modèles, plus pessimistes que le modèle brownien, prédisaient des risques jusqu’à cinq fois plus élevés. Mais pouvait-on s’y fier pour autant? Non, car il n’y a d’autre modèle parfait de la réalité que la réalité elle-même. Tout modèle est fondé sur des hypothèses simplificatrices. Mais il peut nourrir la conviction du décideur que les marchés se comportent de façon rationnelle et que tout le problème consiste à découvrir cette rationalité.
La modélisation mathématique de la réalité fut initiée voici quatre siècles par Kepler, Galilée et Newton à partir de la mécanique céleste, c’est-à-dire dans un domaine bien choisi où de simples relations entre masse, distance, vitesse, accélération et force permettent de décrire le mouvement des planètes et de le prédire sur le long terme avec une précision prodigieuse. Les physiciens du XIXe siècle parvinrent ensuite à modéliser les phénomènes optiques, électromagnétiques, thermodynamiques. Ces succès spectaculaires finirent par accréditer l’illusion généralisée que la Nature, obéissant à des lois éternelles, n’est qu’un automate prévisible indéfiniment.
Au début du XXe siècle, cette méprise subit un premier démenti avec la physique des particules: à cette échelle il existe un hasard véritable tel que l’on ne peut ni tout mesurer, ni tout prédire. En 1960, nouvelle déconvenue: les équations gouvernant la météorologie sont déterministes, c’est-à-dire qu’elles ne comportent aucun facteur aléatoire. Néanmoins elles ne permettent pas de calculer des prévisions à long terme, à cause de la sensibilité des calculs numériques aux mesures initiales, le célèbre effet papillon. En théorie, le futur du système est prévisible, en pratique il est impossible de le calculer.
Si les décideurs des banques avaient connu ces relatives déconvenues de la modélisation, ils se seraient davantage méfiés des résultats fournis par les mathématiciens. Ils doivent intérioriser maintenant les limites intrinsèques de la méthode, qu’ils croyaient magique. Il y en a trois: la nature schématique de tout modèle; son caractère artificiel; sa limitation aux facteurs quantifiables.
Tout d’abord, un bon modèle n’essaie surtout pas de tout contenir. Il ne vise pas la plus grande fidélité au réel, sinon il est compliqué et inutilisable. Il pratique une infidélité délibérée, en ne conservant que quelques grandeurs significatives. De même, une carte topographique, modèle géométrique en deux dimensions de notre globe, n’est utile que si elle schématise en retenant ce qui intéresse spécifiquement un usager particulier, selon qu’il est géomètre du cadastre, randonneur, automobiliste, géologue ou pilote, et en négligeant tout le reste.
Ensuite, un modèle n’est rien de plus qu’une construction mentale de son inventeur. Il n’existe pas des «lois de la Nature» à découvrir, qui auraient été inscrites dans le marbre par le Créateur. Dans le cas des sciences naturelles, cette invention est facilitée par deux circonstances favorables. On suppose que les modèles imaginés sont universels, valides dans tout l’Univers, et éternels, indépendants des siècles qui s’écoulent. C’est une facilité considérable pour les physiciens. En revanche, les modélisateurs d’un phénomène humain comme la bourse ne peuvent rien supposer de la sorte; ils doivent considérer que la réalité financière est fluctuante dans le temps et dans l’espace.
Enfin, la science, au sens fort du terme, n’explique pas tout, mais elle établit seulement des relations entre quelques grandeurs mesurables. Elle est impuissante par sa nature à prédire le comportement des humains. C’est clair pour le déclenchement d’une révolution, cela devrait l’être pour un krach boursier, qui ressort davantage à la sociologie et à la psychologie. Ces disciplines n’ont pas la prétention de quantifier l’objet de leur étude et encore moins de prédire le futur.
La solution définitive ne consiste donc pas à affiner, revoir et corriger fébrilement les modèles mathématiques en s’imaginant que l’on finira par trouver «le» modèle. Cela ne veut pas dire davantage qu’il faille abandonner cette méthode en finance. Les décideurs doivent seulement appréhender la nature de la méthode et se garder de l’appliquer aveuglément en dehors de ses limites.
sábado, março 14, 2009
Índice de hoje
- La fin du paradis bancaire (Le Temps, Genève)
- Booster son cerveau, est-ce bien souhaitable? (Le Temps, Genève)
- Booster son cerveau, est-ce bien souhaitable? (Le Temps, Genève)
La fin du paradis bancaire
Le Temps (Genève)
por Daniel S. Miéville
La Suisse a pris la décision historique de laisser s’ouvrir une brèche dans son secret bancaire. Elle va, elle aussi, reprendre les standards de l’OCDE relatifs à l’entraide administrative en matière fiscale. Elle va donc abandonner, pour l’étranger, la distinction entre fraude et évasion fiscales et consentir à l’échange de renseignements, au cas par cas, en réponse aux demandes concrètes et fondées des administrations fiscales d’autres pays.
Le groupe d’experts désigné vendredi dernier par le Conseil fédéral n’a pas été mis sous pression par ses mandants. Il avait toute latitude de prendre son temps, et Hans-Rudolf Merz était prêt à se rendre à Londres aujourd’hui samedi à la réunion préparatoire du G20 sans pouvoir s’appuyer sur leurs conclusions, a-t-il affirmé vendredi. Il n’a cependant fallu que trois jours et deux réunions aux experts pour se ranger à l’évidence qu’il n’y avait rien d’autre à faire que de suivre le courant qui a emporté ces derniers jours les places financières du monde entier. Leurs conclusions, formulées mercredi déjà, ont permis au Conseil fédéral d’éloigner considérablement le danger que courait la Suisse de figurer sur une liste noire de l’OCDE, sa première priorité, a affirmé vendredi le ministre des Finances. Elles allaient par ailleurs dans le même sens que les réflexions des collègues autrichien et luxembourgeois de Hans-Rudolf Merz, avec lesquels il s’était entretenu dimanche dernier.
Publicité
C’est un affaiblissement du secret bancaire absolu, admet le ministre des Finances, mais cela n’entraîne aucun changement pour les contribuables résidant en Suisse. La protection de la sphère privée des clients des banques reste garantie aussi sûrement qu’elle l’était jusqu’ici. Aucune modification constitutionnelle ou législative n’est du reste nécessaire. Hans-Rudolf Merz craint-il tout de même de rester dans l’histoire comme le fossoyeur du secret bancaire? C’est loin d’être une première, se défend-il, la première concession en ce sens a été faite lors de l’adoption de l’accord bilatéral avec l’UE sur la fraude douanière. Ce n’est pas un enterrement, plaide-t-il encore, c’est une ouverture.
L’accord sur la fraude, rappelons-le, relativise le secret bancaire à propos de la fiscalité indirecte, et le Département des finances, alors dirigé par Kaspar Villiger, avait hésité longtemps avant de conclure, parce qu’il craignait un effet de contagion de la fiscalité indirecte vers la fiscalité directe. La matière de cet accord, l’un des plus importants des négociations bilatérales II, étant extrêmement compliquée et technique, il n’a pas été contesté à l’époque par les partis.
Qui souhaiterait contester démocratiquement la démarche adoptée vendredi par le Conseil fédéral devra faire preuve de patience. L’aménagement du secret bancaire n’est concrètement pas pour demain, puisqu’il n’interviendra que dans le cadre des accords bilatéraux contre la double imposition. La Suisse a signé une septantaine de ces accords, qui devront tous être renégociés. De telles négociations sont difficiles, il faut bien compter deux ou trois ans, convient Hans-Rudolf Merz. Il sera ainsi possible de contester la reprise des standards de l’OCDE au plus tôt lors de la conclusion de la première renégociation d’une convention de double imposition.
Publicité
Se pose bien évidemment la question de la situation intermédiaire des détenteurs étrangers de comptes en Suisse. La situation n’est pas extrêmement claire à cet égard. Il ne devrait pas y avoir, assure Hans-Rudolf Merz, d’effet rétroactif. Dans l’état actuel des choses, et tant qu’une renégociation des accords de double imposition n’en dispose pas autrement, cela équivaut à une amnistie. Et le Conseil fédéral entend bien soumettre la future politique d’assistance administrative à la mise en œuvre de solutions transitoires équitables.
Le Conseil fédéral s’est résigné à céder à la pression internationale mais habille ses concessions d’autres conditions. Le Département des finances insiste sur le respect des droits de procédure, sur le fait qu’il doit s’agir d’une assistance limitée au cas par cas, qu’elle doit être limitée aux impôts tombant sous le coup de la convention, respecter le principe de subsidiarité et les dispositions destinées à éliminer les traitements discriminatoires. Le Conseil fédéral mettra encore tout en œuvre pour que la coopération transfrontalière en matière fiscale «emprunte exclusivement des canaux définis par voie conventionnelle», précision explicite à l’endroit des Américains, qui ont justement violé les procédures. Si le comité d’experts reste en place et continue à conseiller le gouvernement, c’est tout particulièrement pour l’assister dans ses relations avec les Etats-Unis.
Publicité
Hans-Rudolf Merz tient également le langage de la fermeté à l’intention de l’UE. Il faudra renégocier l’accord sur la fiscalité de l’épargne, mais il n’y a aucune raison de renoncer à la coexistence entre la retenue à la source et l’échange automatique d’informations, que «la Suisse n’acceptera jamais».
por Daniel S. Miéville
La Suisse a pris la décision historique de laisser s’ouvrir une brèche dans son secret bancaire. Elle va, elle aussi, reprendre les standards de l’OCDE relatifs à l’entraide administrative en matière fiscale. Elle va donc abandonner, pour l’étranger, la distinction entre fraude et évasion fiscales et consentir à l’échange de renseignements, au cas par cas, en réponse aux demandes concrètes et fondées des administrations fiscales d’autres pays.
Le groupe d’experts désigné vendredi dernier par le Conseil fédéral n’a pas été mis sous pression par ses mandants. Il avait toute latitude de prendre son temps, et Hans-Rudolf Merz était prêt à se rendre à Londres aujourd’hui samedi à la réunion préparatoire du G20 sans pouvoir s’appuyer sur leurs conclusions, a-t-il affirmé vendredi. Il n’a cependant fallu que trois jours et deux réunions aux experts pour se ranger à l’évidence qu’il n’y avait rien d’autre à faire que de suivre le courant qui a emporté ces derniers jours les places financières du monde entier. Leurs conclusions, formulées mercredi déjà, ont permis au Conseil fédéral d’éloigner considérablement le danger que courait la Suisse de figurer sur une liste noire de l’OCDE, sa première priorité, a affirmé vendredi le ministre des Finances. Elles allaient par ailleurs dans le même sens que les réflexions des collègues autrichien et luxembourgeois de Hans-Rudolf Merz, avec lesquels il s’était entretenu dimanche dernier.
Publicité
C’est un affaiblissement du secret bancaire absolu, admet le ministre des Finances, mais cela n’entraîne aucun changement pour les contribuables résidant en Suisse. La protection de la sphère privée des clients des banques reste garantie aussi sûrement qu’elle l’était jusqu’ici. Aucune modification constitutionnelle ou législative n’est du reste nécessaire. Hans-Rudolf Merz craint-il tout de même de rester dans l’histoire comme le fossoyeur du secret bancaire? C’est loin d’être une première, se défend-il, la première concession en ce sens a été faite lors de l’adoption de l’accord bilatéral avec l’UE sur la fraude douanière. Ce n’est pas un enterrement, plaide-t-il encore, c’est une ouverture.
L’accord sur la fraude, rappelons-le, relativise le secret bancaire à propos de la fiscalité indirecte, et le Département des finances, alors dirigé par Kaspar Villiger, avait hésité longtemps avant de conclure, parce qu’il craignait un effet de contagion de la fiscalité indirecte vers la fiscalité directe. La matière de cet accord, l’un des plus importants des négociations bilatérales II, étant extrêmement compliquée et technique, il n’a pas été contesté à l’époque par les partis.
Qui souhaiterait contester démocratiquement la démarche adoptée vendredi par le Conseil fédéral devra faire preuve de patience. L’aménagement du secret bancaire n’est concrètement pas pour demain, puisqu’il n’interviendra que dans le cadre des accords bilatéraux contre la double imposition. La Suisse a signé une septantaine de ces accords, qui devront tous être renégociés. De telles négociations sont difficiles, il faut bien compter deux ou trois ans, convient Hans-Rudolf Merz. Il sera ainsi possible de contester la reprise des standards de l’OCDE au plus tôt lors de la conclusion de la première renégociation d’une convention de double imposition.
Publicité
Se pose bien évidemment la question de la situation intermédiaire des détenteurs étrangers de comptes en Suisse. La situation n’est pas extrêmement claire à cet égard. Il ne devrait pas y avoir, assure Hans-Rudolf Merz, d’effet rétroactif. Dans l’état actuel des choses, et tant qu’une renégociation des accords de double imposition n’en dispose pas autrement, cela équivaut à une amnistie. Et le Conseil fédéral entend bien soumettre la future politique d’assistance administrative à la mise en œuvre de solutions transitoires équitables.
Le Conseil fédéral s’est résigné à céder à la pression internationale mais habille ses concessions d’autres conditions. Le Département des finances insiste sur le respect des droits de procédure, sur le fait qu’il doit s’agir d’une assistance limitée au cas par cas, qu’elle doit être limitée aux impôts tombant sous le coup de la convention, respecter le principe de subsidiarité et les dispositions destinées à éliminer les traitements discriminatoires. Le Conseil fédéral mettra encore tout en œuvre pour que la coopération transfrontalière en matière fiscale «emprunte exclusivement des canaux définis par voie conventionnelle», précision explicite à l’endroit des Américains, qui ont justement violé les procédures. Si le comité d’experts reste en place et continue à conseiller le gouvernement, c’est tout particulièrement pour l’assister dans ses relations avec les Etats-Unis.
Publicité
Hans-Rudolf Merz tient également le langage de la fermeté à l’intention de l’UE. Il faudra renégocier l’accord sur la fiscalité de l’épargne, mais il n’y a aucune raison de renoncer à la coexistence entre la retenue à la source et l’échange automatique d’informations, que «la Suisse n’acceptera jamais».
Booster son cerveau, est-ce bien souhaitable?
Le Temps (Genève)
por Marie-Christine Petit-Pierre
Les méthodes pour améliorer les performances du cerveau, notamment la mémoire, fleurissent. livres, exercices, jeux mais aussi médicaments. Risques et perspectives avec un spécialiste
Dans une société vieillissante mais obsédée par la performance, le citoyen a du souci à se faire pour son cerveau. Comment garder ses fonctions cognitives, en particulier la mémoire, en bon état de marche, voire les améliorer? Les jeux, méthodes et livres pour entraîner cet organe unique fleurissent. Est-il vraiment possible de booster son cerveau? Le point avec Dominique Müller, spécialiste des neurosciences à l’Université de Genève, à l’occasion de la Semaine internationale du cerveau qui commence lundi.
Le Temps: Peut-on améliorer la mémoire par des exercices?
Dominique Müller: Certaines stratégies ont un effet bénéfique, par exemple sur la mémoire à court terme. Celle-ci est limitée à 7 à 9 éléments différents, comme des mots. Si l’on choisit de les classer par associations, on peut retrouver toute une liste de mots supplémentaires. Il ne s’agit pas d’une extension de la mémoire mais d’une méthode plus efficace. Et les processus biologiques de la mémoire ne sont probablement pas modifiés.
Publicité
– Certaines substances, de la caféine à la cocaïne, stimulent le cerveau. Efficace?
– L’effet de la caféine sur la mémoire est débattu, il y a une accoutumance. Dans un premier temps, la caféine stimule le cerveau, ce qui facilite les conditions de mémorisation. Car il faut des pics d’activité des neurones pour mettre en place les mécanismes de la mémoire. La nicotine agit également sur ce mécanisme, tout comme la cocaïne ou les amphétamines, avec les risques d’addiction que l’on connaît. Il y a aussi la ritaline, une sorte d’amphétamine qui est prescrite aux enfants hyperactifs: en permettant une meilleure attention, elle facilite la mémorisation. Mais il peut y avoir des effets secondaires et une addiction. Enfin, dans les nouvelles substances, le modafinil augmente la vigilance. Et facilite donc le processus de mémoire. Il est vendu pour lutter contre le décalage horaire ou les troubles graves du sommeil. Ce médicament n’a, lui non plus, probablement pas d’effet direct sur la mémoire. Il n’est, par ailleurs, pas addictif et présente peu d’effets secondaires. On peut imaginer qu’il soit utilisé par les étudiants lors de la préparation d’examens.
– Le médicament idéal?
– On ne connaît pas les inconvénients à long terme du modafinil et de tous les produits qui ont un effet sur le cerveau. Je doute qu’il y ait des substances sans effets secondaires. Plusieurs compagnies américaines sont en train de développer des médicaments qui devraient directement agir sur les synapses (le point de jonction entre les neurones et base de la mémoire, LT du 1.10. 2008). Ces substances devraient permettre de traiter des troubles comme la maladie d’Alzheimer. Mais le processus de formation des synapses participe à tous les travaux du cerveau. En agissant de manière non sélective, on risque de perturber d’autres fonctions cérébrales. On l’a vu avec le Prozac, présenté comme le médicament miracle contre la dépression, et qui, en désinhibant le patient, favorise le passage à l’acte.
– Le développement de certaines capacités cérébrales, comme la mémoire, se fait-il au détriment d’autres facultés?
– On ne peut pas entraîner le cerveau dans sa totalité. La structuration de cet organe se fait d’une manière privilégiée. Les neurones, soumis à des stimulations répétées, augmentent le nombre de leurs synapses, ce qui permet d’améliorer les circuits sollicités. D’autres synapses, devenues inutiles, vont disparaître.
Publicité
On le voit dans le domaine de la dextérité manuelle, la région du cerveau qui gère le geste entraîné est plus développée que la norme. Ce lien est plus difficile à faire pour l’activité intellectuelle, car elle fait intervenir de nombreuses régions différentes du cerveau. Mais la logique veut que si l’entraînement intellectuel a modifié et adapté certains circuits, cette amélioration reste spécifique, elle n’est jamais globale. Le cerveau est capable de s’adapter physiquement à un usage particulier. Il se réorganise continuellement.
– Allons-nous tous finir par penser de la même manière sous l’effet des médicaments?
– Nous sommes dans la science-fiction, mais l’amélioration de la mémoire pourrait effectivement se faire au détriment de la créativité et d’une pensée originale. En boostant la mémoire, on pourrait très bien produire des altérations d’autres activités ou fonctions cérébrales.
por Marie-Christine Petit-Pierre
Les méthodes pour améliorer les performances du cerveau, notamment la mémoire, fleurissent. livres, exercices, jeux mais aussi médicaments. Risques et perspectives avec un spécialiste
Dans une société vieillissante mais obsédée par la performance, le citoyen a du souci à se faire pour son cerveau. Comment garder ses fonctions cognitives, en particulier la mémoire, en bon état de marche, voire les améliorer? Les jeux, méthodes et livres pour entraîner cet organe unique fleurissent. Est-il vraiment possible de booster son cerveau? Le point avec Dominique Müller, spécialiste des neurosciences à l’Université de Genève, à l’occasion de la Semaine internationale du cerveau qui commence lundi.
Le Temps: Peut-on améliorer la mémoire par des exercices?
Dominique Müller: Certaines stratégies ont un effet bénéfique, par exemple sur la mémoire à court terme. Celle-ci est limitée à 7 à 9 éléments différents, comme des mots. Si l’on choisit de les classer par associations, on peut retrouver toute une liste de mots supplémentaires. Il ne s’agit pas d’une extension de la mémoire mais d’une méthode plus efficace. Et les processus biologiques de la mémoire ne sont probablement pas modifiés.
Publicité
– Certaines substances, de la caféine à la cocaïne, stimulent le cerveau. Efficace?
– L’effet de la caféine sur la mémoire est débattu, il y a une accoutumance. Dans un premier temps, la caféine stimule le cerveau, ce qui facilite les conditions de mémorisation. Car il faut des pics d’activité des neurones pour mettre en place les mécanismes de la mémoire. La nicotine agit également sur ce mécanisme, tout comme la cocaïne ou les amphétamines, avec les risques d’addiction que l’on connaît. Il y a aussi la ritaline, une sorte d’amphétamine qui est prescrite aux enfants hyperactifs: en permettant une meilleure attention, elle facilite la mémorisation. Mais il peut y avoir des effets secondaires et une addiction. Enfin, dans les nouvelles substances, le modafinil augmente la vigilance. Et facilite donc le processus de mémoire. Il est vendu pour lutter contre le décalage horaire ou les troubles graves du sommeil. Ce médicament n’a, lui non plus, probablement pas d’effet direct sur la mémoire. Il n’est, par ailleurs, pas addictif et présente peu d’effets secondaires. On peut imaginer qu’il soit utilisé par les étudiants lors de la préparation d’examens.
– Le médicament idéal?
– On ne connaît pas les inconvénients à long terme du modafinil et de tous les produits qui ont un effet sur le cerveau. Je doute qu’il y ait des substances sans effets secondaires. Plusieurs compagnies américaines sont en train de développer des médicaments qui devraient directement agir sur les synapses (le point de jonction entre les neurones et base de la mémoire, LT du 1.10. 2008). Ces substances devraient permettre de traiter des troubles comme la maladie d’Alzheimer. Mais le processus de formation des synapses participe à tous les travaux du cerveau. En agissant de manière non sélective, on risque de perturber d’autres fonctions cérébrales. On l’a vu avec le Prozac, présenté comme le médicament miracle contre la dépression, et qui, en désinhibant le patient, favorise le passage à l’acte.
– Le développement de certaines capacités cérébrales, comme la mémoire, se fait-il au détriment d’autres facultés?
– On ne peut pas entraîner le cerveau dans sa totalité. La structuration de cet organe se fait d’une manière privilégiée. Les neurones, soumis à des stimulations répétées, augmentent le nombre de leurs synapses, ce qui permet d’améliorer les circuits sollicités. D’autres synapses, devenues inutiles, vont disparaître.
Publicité
On le voit dans le domaine de la dextérité manuelle, la région du cerveau qui gère le geste entraîné est plus développée que la norme. Ce lien est plus difficile à faire pour l’activité intellectuelle, car elle fait intervenir de nombreuses régions différentes du cerveau. Mais la logique veut que si l’entraînement intellectuel a modifié et adapté certains circuits, cette amélioration reste spécifique, elle n’est jamais globale. Le cerveau est capable de s’adapter physiquement à un usage particulier. Il se réorganise continuellement.
– Allons-nous tous finir par penser de la même manière sous l’effet des médicaments?
– Nous sommes dans la science-fiction, mais l’amélioration de la mémoire pourrait effectivement se faire au détriment de la créativité et d’une pensée originale. En boostant la mémoire, on pourrait très bien produire des altérations d’autres activités ou fonctions cérébrales.
quinta-feira, março 12, 2009
Indice de hoje
- Google ofrecerá publicidad en función del comportamiento de los usuarios (El Pais, Madrid)
- El sensor que envia un SMS cuando la planta tiene sed (El Mundo, Madrid)
- El «Hombre de Pekín» llegó a Asia 200.000 años antes de lo que se creía (ABC, Madrid)
- El sensor que envia un SMS cuando la planta tiene sed (El Mundo, Madrid)
- El «Hombre de Pekín» llegó a Asia 200.000 años antes de lo que se creía (ABC, Madrid)
Google ofrecerá publicidad en función del comportamiento de los usuarios
El Pais (Madrid)
por AITOR RIVEIRO
Google quiere convertir la publicidad en información. La empresa que está detrás del buscador más utilizado de Internet anunció anoche el lanzamiento de un nuevo sistema de gestión publicitaria cuyo objetivo es personalizar los anuncios que se ofrece al internauta en virtud de las páginas web que visita y de cómo actúa en ellas.
Su objetivo declarado es hacer los anuncios "más interesantes", convertirlos en un elemento atractivo para el internauta y que le genere valor añadido tanto a él como al anunciante.
El nuevo servicio, que ha comenzado a funcionar a pequeña escala con algunos anunciantes de Estados Unidos y que aún se encuentra en periodo de pruebas, se basa en unos pequeños archivos llamados cookies y cuya misión es almacenar información sobre las páginas que se visitan: dirección, hora de entrada y salida, enlaces que se pinchan, etcétera. Dicha información, que normalmente se almacena en el navegador (el programa que posibilita navegar por Internet), será tratada por Google con el fin de segmentar los gustos y necesidades de cada uno de los usuarios de sus servicios.
De esta manera, si un internauta suele entrar en YouTube a ver vídeos de determinado grupo de música, los anuncios que se le muestren al visitar la red de sitios web de Google tendrán relación con sus gustos. Además, el sistema podrá ofrecer publicidad de páginas que ya ha visitado previamente. Así, si otra persona compra un billete de avión a Barcelona el sistema lo recordará y le ofrecerá ofertas afines en un futuro.
En este punto radica, precisamente, la diferencia entre el sistema actual y el nuevo. Hasta ahora, Google ofrecía publicidad contextual relacionada con el sitio que en ese momento el usuario visitaba o con una determinada consulta realizada en el buscador. A partir de hoy, se tendrá en cuenta, además, el historial del internauta.
Google implantará el sistema no sólo las páginas que son de su propiedad (el propio buscador, Gmail, Blogger, etc.), sino también en aquellos que hacen uso de su programa de anuncios AdSense, lo que supone decenas de millones de páginas web en todo el mundo.
No en vano, AdSense es el servicio publicitario más importante de Internet y la gran vía de ingresos de la empresa californiana. Hace justo un año, Google se convirtió en el rey absoluto de la publicidad en la Red al recibir el permiso de las autoridades de la competencia europeas y estadounidenses para la adquisición de DoubleClick. La compra, que se anunció en 2007, supuso un desembolso de más de 3.000 millones de dólares en efectivo, unos 2.300 millones de euros al cambio de entonces.
Privacidad en peligro
Desde Google justifican el nuevo sistema como una manera de mantener la gratuidad de los servicios en Internet. "El usuario debe entender que la publicidad estará ahí sí o sí", ha asegurado a ELPAÍS.com la responsable de ventas de YouTube y publicidad Display de Google España, Nathalie Picqout. En su opinión, los internautas preferirán ver aquella publicidad que les es más pertinente e interesante, en función de su historial de navegación.
La compañía recuerda que la información que se almacena en las cookies no contiene datos personales (dirección de correo electrónico, dirección IP del ordenador, nombres de usuario, etc.).
Estas cookies, que identifican cada programa navegador que se utilice para acceder a Internet (Firefox, Internet Explorer, Chrome, etcétera) y nunca a la persona que está detrás del teclaado, son almacenadas por Google durante dos años desde su último uso, por lo que siempre estará activa hasta que dicho programa deje de utilizarse.
Y aquí es donde los intereses de la compañía chocan con las directrices de la Agencia Española de Protección de Datos (AEPD). En un dictamen de 2008 del llamado Grupo sobre Protección de Datos del Artículo 29 y que está formado por las autoridades de protección de la Unión Europea se establece que las cookies permanentes deben considerarse como un dato personal y estar, por tanto, sujetas a la legislación vigente en materia de protección de datos. Y las cookies de Google son, de facto, permanentes.
En previsión de las críticas, el buscador ha habilitado un Administrador de preferencia de usuarios que permitirá a los usuarios decidir, entre las 20 categorías y cerca de 600 subcategorías, de cuáles quiere recibir o no los anuncios, así como deshabilitar completamente el servicio, una de las directrices que lanzó el Grupo el año pasado.
Además, el buscador no conservará los archivos relacionados con páginas que contengan información "delicada", esto es, religión, salud o sexo.
¿Cómo se eliminan las 'cookies'?
La AEPD asegura en su dictamen sobre buscadores que la responsabilidad del tratamiento de la información que contienen las cookies es de las empresas que los generan. No obstante, cualquiera puede borrar en cualquier momento todas las cookies que su navegador almacena y eliminar así todo rastro de su paso por la Red.
Si bien es verdad que estos pequeños ficheros son útiles cuando utilizamos mucho una determinada página web (recordará el nombre de usuario o determinada configuración), es decisión del usuario mantenerlo o no en su equipo almacenados
Los navegadores, por defecto, presentan una configuración predefinida bastante laxa al respecto. En Internet Explorer, por ejemplo, hay que acudir desde el menú Herramientas a Opciones de Internet y, una vez de allí, a la pestaña de Privacidad, donde se puede adaptar el nivel de seguridad que deseamos para navegar por Internet. Además, en la pestaña General del mismo menú se pueden borrar tanto las cookies como el historial con las páginas visitadas.
En cuanto a Firefox, el segundo gran navegador por uso en España, las opciones son mayores. En el menú HerramientasOpcionesPrivacidad el usuario puede decidir qué cookies acepta, de quién y hasta cuándo quiere almacenarlas en su equipo. Asimismo, si se pulsa el botón Mostrar cookies, se accede a otro menú que permite borrar estos ficheros del ordenador.
por AITOR RIVEIRO
Google quiere convertir la publicidad en información. La empresa que está detrás del buscador más utilizado de Internet anunció anoche el lanzamiento de un nuevo sistema de gestión publicitaria cuyo objetivo es personalizar los anuncios que se ofrece al internauta en virtud de las páginas web que visita y de cómo actúa en ellas.
Su objetivo declarado es hacer los anuncios "más interesantes", convertirlos en un elemento atractivo para el internauta y que le genere valor añadido tanto a él como al anunciante.
El nuevo servicio, que ha comenzado a funcionar a pequeña escala con algunos anunciantes de Estados Unidos y que aún se encuentra en periodo de pruebas, se basa en unos pequeños archivos llamados cookies y cuya misión es almacenar información sobre las páginas que se visitan: dirección, hora de entrada y salida, enlaces que se pinchan, etcétera. Dicha información, que normalmente se almacena en el navegador (el programa que posibilita navegar por Internet), será tratada por Google con el fin de segmentar los gustos y necesidades de cada uno de los usuarios de sus servicios.
De esta manera, si un internauta suele entrar en YouTube a ver vídeos de determinado grupo de música, los anuncios que se le muestren al visitar la red de sitios web de Google tendrán relación con sus gustos. Además, el sistema podrá ofrecer publicidad de páginas que ya ha visitado previamente. Así, si otra persona compra un billete de avión a Barcelona el sistema lo recordará y le ofrecerá ofertas afines en un futuro.
En este punto radica, precisamente, la diferencia entre el sistema actual y el nuevo. Hasta ahora, Google ofrecía publicidad contextual relacionada con el sitio que en ese momento el usuario visitaba o con una determinada consulta realizada en el buscador. A partir de hoy, se tendrá en cuenta, además, el historial del internauta.
Google implantará el sistema no sólo las páginas que son de su propiedad (el propio buscador, Gmail, Blogger, etc.), sino también en aquellos que hacen uso de su programa de anuncios AdSense, lo que supone decenas de millones de páginas web en todo el mundo.
No en vano, AdSense es el servicio publicitario más importante de Internet y la gran vía de ingresos de la empresa californiana. Hace justo un año, Google se convirtió en el rey absoluto de la publicidad en la Red al recibir el permiso de las autoridades de la competencia europeas y estadounidenses para la adquisición de DoubleClick. La compra, que se anunció en 2007, supuso un desembolso de más de 3.000 millones de dólares en efectivo, unos 2.300 millones de euros al cambio de entonces.
Privacidad en peligro
Desde Google justifican el nuevo sistema como una manera de mantener la gratuidad de los servicios en Internet. "El usuario debe entender que la publicidad estará ahí sí o sí", ha asegurado a ELPAÍS.com la responsable de ventas de YouTube y publicidad Display de Google España, Nathalie Picqout. En su opinión, los internautas preferirán ver aquella publicidad que les es más pertinente e interesante, en función de su historial de navegación.
La compañía recuerda que la información que se almacena en las cookies no contiene datos personales (dirección de correo electrónico, dirección IP del ordenador, nombres de usuario, etc.).
Estas cookies, que identifican cada programa navegador que se utilice para acceder a Internet (Firefox, Internet Explorer, Chrome, etcétera) y nunca a la persona que está detrás del teclaado, son almacenadas por Google durante dos años desde su último uso, por lo que siempre estará activa hasta que dicho programa deje de utilizarse.
Y aquí es donde los intereses de la compañía chocan con las directrices de la Agencia Española de Protección de Datos (AEPD). En un dictamen de 2008 del llamado Grupo sobre Protección de Datos del Artículo 29 y que está formado por las autoridades de protección de la Unión Europea se establece que las cookies permanentes deben considerarse como un dato personal y estar, por tanto, sujetas a la legislación vigente en materia de protección de datos. Y las cookies de Google son, de facto, permanentes.
En previsión de las críticas, el buscador ha habilitado un Administrador de preferencia de usuarios que permitirá a los usuarios decidir, entre las 20 categorías y cerca de 600 subcategorías, de cuáles quiere recibir o no los anuncios, así como deshabilitar completamente el servicio, una de las directrices que lanzó el Grupo el año pasado.
Además, el buscador no conservará los archivos relacionados con páginas que contengan información "delicada", esto es, religión, salud o sexo.
¿Cómo se eliminan las 'cookies'?
La AEPD asegura en su dictamen sobre buscadores que la responsabilidad del tratamiento de la información que contienen las cookies es de las empresas que los generan. No obstante, cualquiera puede borrar en cualquier momento todas las cookies que su navegador almacena y eliminar así todo rastro de su paso por la Red.
Si bien es verdad que estos pequeños ficheros son útiles cuando utilizamos mucho una determinada página web (recordará el nombre de usuario o determinada configuración), es decisión del usuario mantenerlo o no en su equipo almacenados
Los navegadores, por defecto, presentan una configuración predefinida bastante laxa al respecto. En Internet Explorer, por ejemplo, hay que acudir desde el menú Herramientas a Opciones de Internet y, una vez de allí, a la pestaña de Privacidad, donde se puede adaptar el nivel de seguridad que deseamos para navegar por Internet. Además, en la pestaña General del mismo menú se pueden borrar tanto las cookies como el historial con las páginas visitadas.
En cuanto a Firefox, el segundo gran navegador por uso en España, las opciones son mayores. En el menú HerramientasOpcionesPrivacidad el usuario puede decidir qué cookies acepta, de quién y hasta cuándo quiere almacenarlas en su equipo. Asimismo, si se pulsa el botón Mostrar cookies, se accede a otro menú que permite borrar estos ficheros del ordenador.
El sensor que envia un SMS cuando la planta tiene sed
El Mundo (Madrid)
Investigadores del Instituto Vulcani de Israel han desarrollado un sensor que mide los niveles de humedad en plantas y árboles y, en caso de necesidad, envía un SMS al agricultor advirtiéndole que sus cultivos necesitan riego.
La nueva aplicación tecnológica, que ayudará a los agricultores a tener una vida más relajada y menos pendiente de su huerta, da la alerta cuando las plantas requieren agua, enviando un mensaje de texto al teléfono móvil o un mensaje electrónico por internet.
Con forma de martillo, el dispositivo es implantado en el árbol o en la raíz de la planta, donde controla las corrientes eléctricas mediante pulsos, y cuando estas son bajas el sensor emite una señal de alerta, informa el diario Haaretz.
Según los dos encargados del proyecto, Eran Raveh y Arie Nadler, expertos en biología de las plantas y suelos, el dispositivo "será extremadamente ventajoso para agricultores de frutas y verduras" y les ahorrará "hasta un 50% en los gastos de riego".
Los dos científicos han tardado siete años en ver materializada su idea, para permitir que "con este sensor, el nivel de irrigación, y sobre todo sus plazos, sean controlados por los agricultores", en palabras de Nadler.
El Instituto Vulcani, situado unos kilómetros al sureste de Tel Aviv, es una institución dependiente del Ministerio de Agricultura de Israel y dedicado a la investigación agropecuaria.
El germen de esta institución se remonta a 1921, poco después de que los primeros inmigrantes sionistas comenzaran a dedicarse a la agricultura, con la que los judíos casi no tuvieron relación durante veinte siglos.
El nuevo sensor fue presentado al público en una exhibición del Ministerio de Agricultura en el valle de la Arava, con motivo de una conferencia para celebrar el cincuenta aniversario de la repoblación de esa zona desértica del sur de Israel.
Hasta ahora, los agricultores no disponían de un dispositivo barato y eficiente para medir los niveles de humedad.
Para tener una idea clara de cuándo es necesario regar, los agricultores deben realizar en la actualidad una verificación en, por lo menos, 26 puntos alrededor de la planta.
Ese trabajo lo pueden hacer ahora los sensores, con un notable ahorro para los agricultores, que no se verán obligados a desplazarse hasta los cultivos y verificar el índice de sequedad del suelo.
Investigadores del Instituto Vulcani de Israel han desarrollado un sensor que mide los niveles de humedad en plantas y árboles y, en caso de necesidad, envía un SMS al agricultor advirtiéndole que sus cultivos necesitan riego.
La nueva aplicación tecnológica, que ayudará a los agricultores a tener una vida más relajada y menos pendiente de su huerta, da la alerta cuando las plantas requieren agua, enviando un mensaje de texto al teléfono móvil o un mensaje electrónico por internet.
Con forma de martillo, el dispositivo es implantado en el árbol o en la raíz de la planta, donde controla las corrientes eléctricas mediante pulsos, y cuando estas son bajas el sensor emite una señal de alerta, informa el diario Haaretz.
Según los dos encargados del proyecto, Eran Raveh y Arie Nadler, expertos en biología de las plantas y suelos, el dispositivo "será extremadamente ventajoso para agricultores de frutas y verduras" y les ahorrará "hasta un 50% en los gastos de riego".
Los dos científicos han tardado siete años en ver materializada su idea, para permitir que "con este sensor, el nivel de irrigación, y sobre todo sus plazos, sean controlados por los agricultores", en palabras de Nadler.
El Instituto Vulcani, situado unos kilómetros al sureste de Tel Aviv, es una institución dependiente del Ministerio de Agricultura de Israel y dedicado a la investigación agropecuaria.
El germen de esta institución se remonta a 1921, poco después de que los primeros inmigrantes sionistas comenzaran a dedicarse a la agricultura, con la que los judíos casi no tuvieron relación durante veinte siglos.
El nuevo sensor fue presentado al público en una exhibición del Ministerio de Agricultura en el valle de la Arava, con motivo de una conferencia para celebrar el cincuenta aniversario de la repoblación de esa zona desértica del sur de Israel.
Hasta ahora, los agricultores no disponían de un dispositivo barato y eficiente para medir los niveles de humedad.
Para tener una idea clara de cuándo es necesario regar, los agricultores deben realizar en la actualidad una verificación en, por lo menos, 26 puntos alrededor de la planta.
Ese trabajo lo pueden hacer ahora los sensores, con un notable ahorro para los agricultores, que no se verán obligados a desplazarse hasta los cultivos y verificar el índice de sequedad del suelo.
El «Hombre de Pekín» llegó a Asia 200.000 años antes de lo que se creía
ABC (Madrid)
por JOSÉ MANUEL NIEVES | MADRID
Los primeros humanos pudieron llegar hasta 200. 000 años antes de lo que se pensaba al Este de Asia, según se afirma en un estudio de la Universidad Normativa de Nanjing en China que se publica esta semana en la revista «Nature». El trabajo, realizado sobre restos fósiles ya conocidos, anteriormente, ha revisado, de nuevo, la antiguedad estimada de los huesos del «Homo erectus» de Zhoukoudian, conocido popularmente como el «Hombre de Pekín».
Los datos obtenidos durante la investigación indican, en efecto, que aquellos antiguos homínidos vivieron en esta región en los periodos glaciales e interglaciales, un hecho relevante y que podría modificar sustancialmente las ideas que hoy manejan los paleontólogos sobre el momento en que se produjeron las primeras migraciones humanas al continente asiático.
Descubiertos a principios de la década de los 20 del pasado siglo en una cueva en Zhoukoudian, cerca de la capital china, los fósiles del «Hombre de Pekín» fueron asignados, tras numerosos estudios y comparaciones anatómicas, a la especie Homo erectus. El yacimiento, situado en el interior de una cueva, ha proporcionado hasta el momento restos de cuarenta individuos diferentes. Por ello, está considerado como la fuente más importante que existe en el mundo sobre esta antigua especie humana.
Hasta el momento, los investigadores han venido utilizando distintas técnicas para datar los fósiles que se van descubriendo en diferentes zonas del mundo, pero los hallados en el interior de cuevas han sido siempre mucho más difíciles de datar que los que aparecen en otros lugares.
Ahora, y utilizando un método de datación de fósiles relativamente nuevo, basado en la descomposición radioactiva de los isótopos de aluminio y berilio en granos de cuarzo, el equipo de investigadores dirigido por Guanjun Shen, de la ya citada Universidad Normativa de Nanjing, ha conseguido una datación mucho más precisa que las que se habían llevado a cabo hasta ahora.
Los resultados de sus análisis fecharon los descubrimientos en unos 780.000 años de antiguedad, lo que supone añadir unos 200. 000 años más a lo estimado anteriormente, e indican la presencia de homínidos en esa zona del planeta en los ciclos glaciales e interglaciales. Según los científicos, los resultados ayudarán a desarrollar una cronología más fiable de la evolución humana al Este de Asia.
Con un cráneo mucho más duro y grueso que el de los hombres actuales, Homo erectus (llamado así por su postura erguida) tenía una capacidad craneal entre los 650 y los 1.250 centímetros cúbicos (la nuestra está entre los 1.110 y los 1.800 centímetros cúbicos), y medía entre 1,45 y 1,80 metros de altura.
Su forma de caminar, analizada con todo detalle a partir de las huellas encontradas, era muy similar a la nuestra. Utilizaban herramientas de piedra y se caracterizaban por un torso grueso y en forma de barril, mucho mayor que el nuestro.
por JOSÉ MANUEL NIEVES | MADRID
Los primeros humanos pudieron llegar hasta 200. 000 años antes de lo que se pensaba al Este de Asia, según se afirma en un estudio de la Universidad Normativa de Nanjing en China que se publica esta semana en la revista «Nature». El trabajo, realizado sobre restos fósiles ya conocidos, anteriormente, ha revisado, de nuevo, la antiguedad estimada de los huesos del «Homo erectus» de Zhoukoudian, conocido popularmente como el «Hombre de Pekín».
Los datos obtenidos durante la investigación indican, en efecto, que aquellos antiguos homínidos vivieron en esta región en los periodos glaciales e interglaciales, un hecho relevante y que podría modificar sustancialmente las ideas que hoy manejan los paleontólogos sobre el momento en que se produjeron las primeras migraciones humanas al continente asiático.
Descubiertos a principios de la década de los 20 del pasado siglo en una cueva en Zhoukoudian, cerca de la capital china, los fósiles del «Hombre de Pekín» fueron asignados, tras numerosos estudios y comparaciones anatómicas, a la especie Homo erectus. El yacimiento, situado en el interior de una cueva, ha proporcionado hasta el momento restos de cuarenta individuos diferentes. Por ello, está considerado como la fuente más importante que existe en el mundo sobre esta antigua especie humana.
Hasta el momento, los investigadores han venido utilizando distintas técnicas para datar los fósiles que se van descubriendo en diferentes zonas del mundo, pero los hallados en el interior de cuevas han sido siempre mucho más difíciles de datar que los que aparecen en otros lugares.
Ahora, y utilizando un método de datación de fósiles relativamente nuevo, basado en la descomposición radioactiva de los isótopos de aluminio y berilio en granos de cuarzo, el equipo de investigadores dirigido por Guanjun Shen, de la ya citada Universidad Normativa de Nanjing, ha conseguido una datación mucho más precisa que las que se habían llevado a cabo hasta ahora.
Los resultados de sus análisis fecharon los descubrimientos en unos 780.000 años de antiguedad, lo que supone añadir unos 200. 000 años más a lo estimado anteriormente, e indican la presencia de homínidos en esa zona del planeta en los ciclos glaciales e interglaciales. Según los científicos, los resultados ayudarán a desarrollar una cronología más fiable de la evolución humana al Este de Asia.
Con un cráneo mucho más duro y grueso que el de los hombres actuales, Homo erectus (llamado así por su postura erguida) tenía una capacidad craneal entre los 650 y los 1.250 centímetros cúbicos (la nuestra está entre los 1.110 y los 1.800 centímetros cúbicos), y medía entre 1,45 y 1,80 metros de altura.
Su forma de caminar, analizada con todo detalle a partir de las huellas encontradas, era muy similar a la nuestra. Utilizaban herramientas de piedra y se caracterizaban por un torso grueso y en forma de barril, mucho mayor que el nuestro.
quarta-feira, março 11, 2009
Indice de hoje
- Cientistas criam bateria de lítio que recarrega em 10 segundos (Folha de S. Paulo, Brasil)
- Un chimpanzé surdoué au zoo de Stockholm (Le Figaro, Paris)
- Un chimpanzé surdoué au zoo de Stockholm (Le Figaro, Paris)
Cientistas criam bateria de lítio que recarrega em 10 segundos
Folha de S. Paulo (Brasil)
A revista "Nature" publica, nesta quarta-feira (11), um artigo em que apresenta uma nova bateria a base de lítio, que é capaz de armazenar e gerar uma maior quantidade de energia do que as atuais, e é recarregada em apenas dez segundos --uma invenção que poderia revolucionar o mundo da telefonia celular. A bateria deve ser comercializada em alguns anos, segundo os pesquisadores que capitaneiam o projeto.
A invenção foi desenvolvida por Byoungwoo Kang e Gerbrand Ceder, dois cientistas do Instituto de Tecnologia de Massachusetts (MIT), que se dedicaram a melhorar o rendimento oferecido pelas baterias atuais através de um novo desenho dos canais encarregados de transportar a energia de um lado para outro da pilha.
Atualmente, as baterias de lítio oferecem um bom rendimento energético --mas seu ponto fraco é o baixo nível de potência em determinados momentos nos quais, por qualquer motivo, é necessário uma carga extra.
O fato é associado à lentidão com a qual os íons e elétrons do lítio circulam.
Por isso, os pesquisadores centraram seus esforços em conseguir aumentar a velocidade de deslocamento dos íons. Eles criaram uma ferramenta capaz de distribuir a energia por cada um dos cantos do dispositivo.
Ceder explicou que isto permitiria carregar uma pequena bateria --similar à usada nos telefones celulares-- em apenas dez ou 20 segundos, o que "poderia ter muitíssimas aplicações práticas e poderia chegar a mudar nosso estilo de vida".
Kang e Ceder utilizaram como base o composto LiFePO4, usado frequentemente na fabricação de baterias, e o cobriram com uma mistura de ferro, fósforo e oxigênio que, após ser aquecido, permite que os íons se desloquem com rapidez.
Além dos dois pesquisadores do MIT, empresas de tecnologia já haviam revelado que trabalham no desenvolvimento de baterias e pilhas mais potentes e baseadas em outros elementos químicos, cujas durações de carga podem chegar até um mês.
A revista "Nature" publica, nesta quarta-feira (11), um artigo em que apresenta uma nova bateria a base de lítio, que é capaz de armazenar e gerar uma maior quantidade de energia do que as atuais, e é recarregada em apenas dez segundos --uma invenção que poderia revolucionar o mundo da telefonia celular. A bateria deve ser comercializada em alguns anos, segundo os pesquisadores que capitaneiam o projeto.
A invenção foi desenvolvida por Byoungwoo Kang e Gerbrand Ceder, dois cientistas do Instituto de Tecnologia de Massachusetts (MIT), que se dedicaram a melhorar o rendimento oferecido pelas baterias atuais através de um novo desenho dos canais encarregados de transportar a energia de um lado para outro da pilha.
Atualmente, as baterias de lítio oferecem um bom rendimento energético --mas seu ponto fraco é o baixo nível de potência em determinados momentos nos quais, por qualquer motivo, é necessário uma carga extra.
O fato é associado à lentidão com a qual os íons e elétrons do lítio circulam.
Por isso, os pesquisadores centraram seus esforços em conseguir aumentar a velocidade de deslocamento dos íons. Eles criaram uma ferramenta capaz de distribuir a energia por cada um dos cantos do dispositivo.
Ceder explicou que isto permitiria carregar uma pequena bateria --similar à usada nos telefones celulares-- em apenas dez ou 20 segundos, o que "poderia ter muitíssimas aplicações práticas e poderia chegar a mudar nosso estilo de vida".
Kang e Ceder utilizaram como base o composto LiFePO4, usado frequentemente na fabricação de baterias, e o cobriram com uma mistura de ferro, fósforo e oxigênio que, após ser aquecido, permite que os íons se desloquem com rapidez.
Além dos dois pesquisadores do MIT, empresas de tecnologia já haviam revelado que trabalham no desenvolvimento de baterias e pilhas mais potentes e baseadas em outros elementos químicos, cujas durações de carga podem chegar até um mês.
Un chimpanzé surdoué au zoo de Stockholm
Le Figaro (Paris)
por Anne Jouan et Léna Lutaud
Des chercheurs suédois viennent de montrer que Santino, un chimpanzé mâle dominant, prépare plusieurs heures à l'avance les pierres qu'il lance ensuite en direction des visiteurs du zoo où il vit.
Santino est un chimpanzé mâle de 31 ans qui vit en captivité, dans le parc zoologique de Furuvik, au nord de Stockholm. Né en Allemagne et arrivé à l'âge de 5 ans en Suède, le primate serait resté dans l'anonymat le plus complet si Mathias Osvath, un chercheur spécialisé en sciences cognitives à l'université suédoise de Lund, ne s'était pas penché sur son cas. Ce sont les responsables du zoo, étonnés par le comportement étrange de l'animal, qui ont contacté le scientifique.
Dans cet établissement, les chimpanzés habitent sur une île entourée d'eau. «En captivité, ces singes ont l'habitude de sauter sur leurs deux pattes pour se faire plus grands ou de taper sur des troncs d'arbres», explique au Figaro Mathias Osvath. «Ils s'amusent aussi à lancer sur le public des bouts de bois, des pierres, des excréments et trouvent cela très drôle.» Jusque-là rien d'exceptionnel.
Sauf que le chercheur suédois s'est aperçu que Santino profitait des moments de calme avant l'ouverture du zoo, le matin, pour aller méthodiquement ramasser des pierres dans l'eau. Très tranquillement, il amasse ses munitions et les dispose par terre de façon stratégique, à savoir uniquement du côté d'où vient le public. Sur les autres parties de la petite île, aucun tas de cailloux n'a jamais été découvert.
Lancer «à la cuillère»
En outre, Santino façonne ces pierres en forme de disques qu'il utilise ensuite, selon l'expression de Osvath, comme des «missiles». «Ainsi, quand il est surexcité et veut montrer qu'il est le mâle dominant, il a son petit tas, prêt à l'emploi», raconte le chercheur qui relève par ailleurs qu'il n'y a jamais eu de blessés graves puisque la plupart du temps, les pierres tombent dans l'eau. La raison est simple : ces animaux n'ont pas de bras et de poignets aptes à lancer fort et loin. Ils lancent donc «à la cuillère» car ils ne peuvent casser leur poignet à 90 degrés comme le font les êtres humains. Les scientifiques ont retrouvé plusieurs dizaines de tas de cailloux soigneusement rangés.
Après avoir étudié pendant dix ans le comportement singulier de Santino, Mathias Osvath en a déduit dans un article publié avant-hier dans la revue américaine Current Biology, que ce chimpanzé «surdoué» était capable d'anticiper et d'élaborer des stratégies d'action à long terme. Une aptitude intellectuelle que l'on a longtemps cru réservée aux humains.
L'équipe de chercheurs suédois a également mené une étude sur des orangs-outans et sur d'autres chimpanzés. «Là aussi, nos travaux montrent qu'ils planifient l'avenir. À Cambridge, des chercheurs ont également démontré que des oiseaux de la famille des corbeaux anticipaient, note Mathias Osvath. Et nous pensons que les dauphins le font aussi.» Selon lui, la captivité n'a pas influencé le résultat, elle a juste simplifié l'observation de l'animal qui a agi seul, sans aucun stimulus. Le chercheur estime que «ces animaux ont probablement leur monde intérieur, comme les humains qui passent en revue dans leur tête des épisodes de leur vie passée ou pensent aux jours à venir.Les chimpanzés qui vivent dans la nature ramassent des pierres en prévision d'une attaque et ils planifient probablement tout cela à l'avance», poursuit Mathias Osvath, qui estime que la plupart des comportements quotidiens de ces primates procèdent de la même démarche.
Une preuve de plus
Sabrina Krief, maître de conférence au Muséum national d'histoire naturelle de Paris et spécialiste des chimpanzés, juge cette étude très intéressante. «Santino ramasse ses cailloux au moins quatre heures avant de les lancer sur les visiteurs. Il y a donc un laps de temps assez long entre les deux. Sans compter que cette opération n'a aucun rapport avec la nourriture comme c'est généralement le cas.» La chercheuse explique que, dans la nature, lorsque les fruits ne sont pas mûrs, les chimpanzés reviennent régulièrement voir s'ils peuvent ou non les consommer. Elle rappelle également que pour casser des noix, ces grands singes déplacent des pierres, parfois très lourdes, sur plusieurs centaines de mètres. L'anticipation y est donc réelle, mais effectivement toujours en rapport avec la nourriture.
«Cette publication montre également que quand le zoo est fermé pendant plusieurs jours, ce chimpanzé arrête de ramasser des cailloux, relève Sabrina Krief. En outre, le planning des jours d'ouverture n'étant pas régulier. Santino n'agit ni par ennui ni par réflexe.» Pour cette primatologue, l'étude de ses collègues suédois constitue une preuve de plus que la capacité d'anticipation, que l'on a longtemps cru exclusivement réservée aux hommes, n'est pas leur apanage.
por Anne Jouan et Léna Lutaud
Des chercheurs suédois viennent de montrer que Santino, un chimpanzé mâle dominant, prépare plusieurs heures à l'avance les pierres qu'il lance ensuite en direction des visiteurs du zoo où il vit.
Santino est un chimpanzé mâle de 31 ans qui vit en captivité, dans le parc zoologique de Furuvik, au nord de Stockholm. Né en Allemagne et arrivé à l'âge de 5 ans en Suède, le primate serait resté dans l'anonymat le plus complet si Mathias Osvath, un chercheur spécialisé en sciences cognitives à l'université suédoise de Lund, ne s'était pas penché sur son cas. Ce sont les responsables du zoo, étonnés par le comportement étrange de l'animal, qui ont contacté le scientifique.
Dans cet établissement, les chimpanzés habitent sur une île entourée d'eau. «En captivité, ces singes ont l'habitude de sauter sur leurs deux pattes pour se faire plus grands ou de taper sur des troncs d'arbres», explique au Figaro Mathias Osvath. «Ils s'amusent aussi à lancer sur le public des bouts de bois, des pierres, des excréments et trouvent cela très drôle.» Jusque-là rien d'exceptionnel.
Sauf que le chercheur suédois s'est aperçu que Santino profitait des moments de calme avant l'ouverture du zoo, le matin, pour aller méthodiquement ramasser des pierres dans l'eau. Très tranquillement, il amasse ses munitions et les dispose par terre de façon stratégique, à savoir uniquement du côté d'où vient le public. Sur les autres parties de la petite île, aucun tas de cailloux n'a jamais été découvert.
Lancer «à la cuillère»
En outre, Santino façonne ces pierres en forme de disques qu'il utilise ensuite, selon l'expression de Osvath, comme des «missiles». «Ainsi, quand il est surexcité et veut montrer qu'il est le mâle dominant, il a son petit tas, prêt à l'emploi», raconte le chercheur qui relève par ailleurs qu'il n'y a jamais eu de blessés graves puisque la plupart du temps, les pierres tombent dans l'eau. La raison est simple : ces animaux n'ont pas de bras et de poignets aptes à lancer fort et loin. Ils lancent donc «à la cuillère» car ils ne peuvent casser leur poignet à 90 degrés comme le font les êtres humains. Les scientifiques ont retrouvé plusieurs dizaines de tas de cailloux soigneusement rangés.
Après avoir étudié pendant dix ans le comportement singulier de Santino, Mathias Osvath en a déduit dans un article publié avant-hier dans la revue américaine Current Biology, que ce chimpanzé «surdoué» était capable d'anticiper et d'élaborer des stratégies d'action à long terme. Une aptitude intellectuelle que l'on a longtemps cru réservée aux humains.
L'équipe de chercheurs suédois a également mené une étude sur des orangs-outans et sur d'autres chimpanzés. «Là aussi, nos travaux montrent qu'ils planifient l'avenir. À Cambridge, des chercheurs ont également démontré que des oiseaux de la famille des corbeaux anticipaient, note Mathias Osvath. Et nous pensons que les dauphins le font aussi.» Selon lui, la captivité n'a pas influencé le résultat, elle a juste simplifié l'observation de l'animal qui a agi seul, sans aucun stimulus. Le chercheur estime que «ces animaux ont probablement leur monde intérieur, comme les humains qui passent en revue dans leur tête des épisodes de leur vie passée ou pensent aux jours à venir.Les chimpanzés qui vivent dans la nature ramassent des pierres en prévision d'une attaque et ils planifient probablement tout cela à l'avance», poursuit Mathias Osvath, qui estime que la plupart des comportements quotidiens de ces primates procèdent de la même démarche.
Une preuve de plus
Sabrina Krief, maître de conférence au Muséum national d'histoire naturelle de Paris et spécialiste des chimpanzés, juge cette étude très intéressante. «Santino ramasse ses cailloux au moins quatre heures avant de les lancer sur les visiteurs. Il y a donc un laps de temps assez long entre les deux. Sans compter que cette opération n'a aucun rapport avec la nourriture comme c'est généralement le cas.» La chercheuse explique que, dans la nature, lorsque les fruits ne sont pas mûrs, les chimpanzés reviennent régulièrement voir s'ils peuvent ou non les consommer. Elle rappelle également que pour casser des noix, ces grands singes déplacent des pierres, parfois très lourdes, sur plusieurs centaines de mètres. L'anticipation y est donc réelle, mais effectivement toujours en rapport avec la nourriture.
«Cette publication montre également que quand le zoo est fermé pendant plusieurs jours, ce chimpanzé arrête de ramasser des cailloux, relève Sabrina Krief. En outre, le planning des jours d'ouverture n'étant pas régulier. Santino n'agit ni par ennui ni par réflexe.» Pour cette primatologue, l'étude de ses collègues suédois constitue une preuve de plus que la capacité d'anticipation, que l'on a longtemps cru exclusivement réservée aux hommes, n'est pas leur apanage.
sábado, março 07, 2009
Google SA, agencia de publicidad
El Pais (Madrid)
"Creímos que Google sólo iba a ser la biblioteca de Alejandría del nuevo siglo; luego vimos que hacía de intermediario de las agencias online. Ahora compite con las agencias convencionales". Luis Casadevall, mejor creativo del siglo según anunciantes y publicistas, resume entre estupefacto y entusiasmado, el panorama mundial de la publicidad.
El siglo XXI alumbró, en medio de la crisis de las puntocom, Adwords, la herramienta del entonces inmaculado Google para introducir publicidad junto con las búsquedas. Nueve años después, Google ingresó por ese concepto 21.000 millones de dólares, más que cualquier multinacional de la publicidad. Su peso crece proporcionalmente al número de internautas. "¿Qué futuro tiene la agencia convencional ante la audacia, la innovación y la ambición de Google?", se pregunta Casadevall. La catarsis de la música, del cine, del periodismo, se sigue extendiendo a otros sectores.Servicios de buscadores a medida para empresas...servicios premium de correo...picasas...Google Earth, pero de cada 100 dólares que entran en la caja de Google, 97 son por la publicidad. Su dependencia ha bajado sólo dos puntos en ocho años.
De los 21.795 millones de dólares ingresados en 2008, el 69% fueron con AdWords, anuncios insertados en los resultados del buscador. "La publicidad textual y relacional es las más efectiva en Internet", dice Jaime García, analista tecnológico de IDC. "A parte de no alterar el orden de búsqueda, la publicidad en Google es menos invasiva y manipuladora que en otros buscadores".
Al margen de que el público agradezca más o menos este tipo de anuncios, hay otra característica fundamental, "el anunciante sólo paga cuando se entra en su página", señala Pere Rovira del medidor de audiencias WebAnalytics. "El pago por clic es una ventaja respecto a otros modelos publicitarios que exigen que el anunciante pague por la mera inserción".
La puja publicitaria
"AdWords funciona como un sistema de puja o apuesta de manera que los anunciantes deciden cuánto están dispuestos a pagar por aquellas palabras clave relacionadas con su producto o servicio", explica Isabel Salazar", responsable del producto de Google. "Hay términos que generan tanta demanda que los precios son muy elevados. Era el caso de la venta de pisos, donde ha había una competencia tan extraordinaria que el precio del clic se pagaba entre 15 y 20 euro", dice Gustavo Entrala, director de la agencia 1001.es. "Es un soporte que requiere muy poca inversión". Puede anunciarse desde Repsol a un blog. A partir de 10 euros se puede hacer una campaña.
Y una característica más que completa las ventajas del sistema: sin necesidad de intermediarios. No hay que acudir a una agencia de medios. Ni para la estrategia ni para que te midan la efectividad del anuncio. Google proporciona al anunciante, más aún, a cualquier que tenga una web o un blog, la herramienta para saber quién entra en tu página, cuando, por qué, dónde pincha. "Es cierto que cada uno puede ser su agencia. Eso es bueno porque populariza la publicidad", explica sin miedo Gabriel Sáenz de Buruaga, director general de Media Contact.
Sáenz de Buruaga califica a Google de frienemy, amigo y enemigo, aliado y competidor. "Tiene las dos caras; el lado fantástico de productos muy superiores al resto, pensados sólo y en función del consumidor. Gracias a ellos consigue situaciones de casi monopolio, y entonces aparece la otra cara: su sistema de análisis sesga los resultados a favor de su sistema". Adwords es tan perverso, o perfecto, que hay que anunciarse para que no se anuncien otros. Es el caso de NaranjasLola, que está en los tribunales."¿Verdad que no es lógico que uno tenga que hacer publicidad para que no se anuncien otros en las búsquedas de mi propio nombre?", se pregunta Federico Aparici, propietario de NaranjasLola.com. Él mismo se responde: "Lo hago para que no me quiten ningún clic. He llegado a pagar al mes más de 1.500 euros".
Aparici fue pionero en vender naranjas por Internet. Tras su estela llegaron los competidores que no dudan en comprar la búsqueda para aprovechar el tirón de su marca. Introduciendo esta palabra en Google, el buscador ofrece anuncios de otros naranjeros. "Google debe ingresar alrededor de 10.000 euros mensuales aprovechándose del gancho de mi marca", dice Aparici.
Si una empresa tiene su marca registrada en España y quiere que otra compañía no utilice su nombre en Google para anunciarse, debe comunicar al buscador que su marca esta registrada. Sin embargo, Aparici asegura que lleva tres años intentando que Google deje de subastar su nombre comercial. Según Google, "si ha comunicado el registro y continúa teniendo problemas, igual hay otros detalles que desconocemos".
Home, una tienda digital especializada en productos descanso, han reunido un listado de 40.000 clientes en cinco años. Factura un millón de euros al mes, pero destina el 70% de su presupuesto a publicidad digital y, de esta cifra, el 60% es en Google. En algunas campañas han logrado que un 17% de los que ven su anuncio patrocinado pinchen.
Google se mueve rápido, con lo que funciona y con lo que no. En enero cerró Print Ads, un servicio para extender su abanico publicitario a los diarios de papel; en febrero ha cerrado Radio Ads, el mismo servicio para radios. Siguen con TVAds, para la tele y anuncian la inserción de publicidad en su sección de noticias en Estados Unidos, hasta ahora virginal. ¿El futuro?, se preguntaba al inicio Casadevall. "Las agencias tendrán que ser centros de inteligencia, de estrategia, de creación de conceptos, de producción y de distribución offline y online. Los distintos especialistas de áreas deben empezar a trabajar juntos.Y sumar talento. La fusión es un hecho en todas las direcciones".
¿Fusiones o desapariciones? "Las agencias que sólo se basan en la intermediación tienen un futuro turbio", augura Sáenz de Buruaga; "pero la capacidad de un creativo, de definir la mejor estrategia, eso es imposible de sustituir".
"Creímos que Google sólo iba a ser la biblioteca de Alejandría del nuevo siglo; luego vimos que hacía de intermediario de las agencias online. Ahora compite con las agencias convencionales". Luis Casadevall, mejor creativo del siglo según anunciantes y publicistas, resume entre estupefacto y entusiasmado, el panorama mundial de la publicidad.
El siglo XXI alumbró, en medio de la crisis de las puntocom, Adwords, la herramienta del entonces inmaculado Google para introducir publicidad junto con las búsquedas. Nueve años después, Google ingresó por ese concepto 21.000 millones de dólares, más que cualquier multinacional de la publicidad. Su peso crece proporcionalmente al número de internautas. "¿Qué futuro tiene la agencia convencional ante la audacia, la innovación y la ambición de Google?", se pregunta Casadevall. La catarsis de la música, del cine, del periodismo, se sigue extendiendo a otros sectores.Servicios de buscadores a medida para empresas...servicios premium de correo...picasas...Google Earth, pero de cada 100 dólares que entran en la caja de Google, 97 son por la publicidad. Su dependencia ha bajado sólo dos puntos en ocho años.
De los 21.795 millones de dólares ingresados en 2008, el 69% fueron con AdWords, anuncios insertados en los resultados del buscador. "La publicidad textual y relacional es las más efectiva en Internet", dice Jaime García, analista tecnológico de IDC. "A parte de no alterar el orden de búsqueda, la publicidad en Google es menos invasiva y manipuladora que en otros buscadores".
Al margen de que el público agradezca más o menos este tipo de anuncios, hay otra característica fundamental, "el anunciante sólo paga cuando se entra en su página", señala Pere Rovira del medidor de audiencias WebAnalytics. "El pago por clic es una ventaja respecto a otros modelos publicitarios que exigen que el anunciante pague por la mera inserción".
La puja publicitaria
"AdWords funciona como un sistema de puja o apuesta de manera que los anunciantes deciden cuánto están dispuestos a pagar por aquellas palabras clave relacionadas con su producto o servicio", explica Isabel Salazar", responsable del producto de Google. "Hay términos que generan tanta demanda que los precios son muy elevados. Era el caso de la venta de pisos, donde ha había una competencia tan extraordinaria que el precio del clic se pagaba entre 15 y 20 euro", dice Gustavo Entrala, director de la agencia 1001.es. "Es un soporte que requiere muy poca inversión". Puede anunciarse desde Repsol a un blog. A partir de 10 euros se puede hacer una campaña.
Y una característica más que completa las ventajas del sistema: sin necesidad de intermediarios. No hay que acudir a una agencia de medios. Ni para la estrategia ni para que te midan la efectividad del anuncio. Google proporciona al anunciante, más aún, a cualquier que tenga una web o un blog, la herramienta para saber quién entra en tu página, cuando, por qué, dónde pincha. "Es cierto que cada uno puede ser su agencia. Eso es bueno porque populariza la publicidad", explica sin miedo Gabriel Sáenz de Buruaga, director general de Media Contact.
Sáenz de Buruaga califica a Google de frienemy, amigo y enemigo, aliado y competidor. "Tiene las dos caras; el lado fantástico de productos muy superiores al resto, pensados sólo y en función del consumidor. Gracias a ellos consigue situaciones de casi monopolio, y entonces aparece la otra cara: su sistema de análisis sesga los resultados a favor de su sistema". Adwords es tan perverso, o perfecto, que hay que anunciarse para que no se anuncien otros. Es el caso de NaranjasLola, que está en los tribunales."¿Verdad que no es lógico que uno tenga que hacer publicidad para que no se anuncien otros en las búsquedas de mi propio nombre?", se pregunta Federico Aparici, propietario de NaranjasLola.com. Él mismo se responde: "Lo hago para que no me quiten ningún clic. He llegado a pagar al mes más de 1.500 euros".
Aparici fue pionero en vender naranjas por Internet. Tras su estela llegaron los competidores que no dudan en comprar la búsqueda para aprovechar el tirón de su marca. Introduciendo esta palabra en Google, el buscador ofrece anuncios de otros naranjeros. "Google debe ingresar alrededor de 10.000 euros mensuales aprovechándose del gancho de mi marca", dice Aparici.
Si una empresa tiene su marca registrada en España y quiere que otra compañía no utilice su nombre en Google para anunciarse, debe comunicar al buscador que su marca esta registrada. Sin embargo, Aparici asegura que lleva tres años intentando que Google deje de subastar su nombre comercial. Según Google, "si ha comunicado el registro y continúa teniendo problemas, igual hay otros detalles que desconocemos".
Home, una tienda digital especializada en productos descanso, han reunido un listado de 40.000 clientes en cinco años. Factura un millón de euros al mes, pero destina el 70% de su presupuesto a publicidad digital y, de esta cifra, el 60% es en Google. En algunas campañas han logrado que un 17% de los que ven su anuncio patrocinado pinchen.
Google se mueve rápido, con lo que funciona y con lo que no. En enero cerró Print Ads, un servicio para extender su abanico publicitario a los diarios de papel; en febrero ha cerrado Radio Ads, el mismo servicio para radios. Siguen con TVAds, para la tele y anuncian la inserción de publicidad en su sección de noticias en Estados Unidos, hasta ahora virginal. ¿El futuro?, se preguntaba al inicio Casadevall. "Las agencias tendrán que ser centros de inteligencia, de estrategia, de creación de conceptos, de producción y de distribución offline y online. Los distintos especialistas de áreas deben empezar a trabajar juntos.Y sumar talento. La fusión es un hecho en todas las direcciones".
¿Fusiones o desapariciones? "Las agencias que sólo se basan en la intermediación tienen un futuro turbio", augura Sáenz de Buruaga; "pero la capacidad de un creativo, de definir la mejor estrategia, eso es imposible de sustituir".
sexta-feira, março 06, 2009
Voir la Terre cicatriser doucement
Le Temps (Genève)
Lucia Sillig
Pendant les trois ans et demi qui ont suivi le séisme de Bam, en Iran, des scientifiques ont observé la zone par satellite
En 2003, un tremblement de terre dévastait la ville de Bam, en Iran. Pourtant le glissement de plusieurs mètres mesuré en profondeur ne se voyait que très peu en surface. D’après des chercheurs américains, qui ont publié leurs travaux dans la revue Nature du 5 mars, le sol s’est en quelque sorte tuméfié, puis a lentement guéri. C’est la première fois que ce phénomène est observé «en direct», grâce au satellite européen Envisat. Une bonne nouvelle pour les sismologues, qui craignaient que toutes les contraintes souterraines ne se soient pas encore relâchées et qu’il faille s’attendre à d’autres secousses.
Le séisme de magnitude 6,6 avait fait 30 000 morts. La faille, enterrée à environ un kilomètre de profondeur, passait juste sous la ville. Des études ont montré qu’il y avait eu un glissement de deux à trois mètres d’un côté par rapport à l’autre. Alors qu’on ne retrouvait qu’un déplacement de 25 centimètres en surface. «D’une façon ou d’une autre, le glissement avait dû être absorbé», relèvent les auteurs.
Publicité
Dès le douzième jour après le séisme et pendant trois ans et demi, les scientifiques ont analysé le terrain grâce à des micro-ondes envoyées par le satellite et réfléchies par la surface de la Terre. Ils ont détecté un affaissement progressif du sol de trois centimètres sur une zone de 200 à 400 mètres de large, directement au-dessus de la faille. Il s’agit du «processus de guérison» de la zone tuméfiée. «Avant le tremblement de terre, le sol est très compact, explique Nicolas Deichmann, de l’Institut suisse de sismologie. Comme un mur dont les briques sont bien arrangées. Si on le casse, le tas de débris aura un volume supérieur au mur.» Après le séisme, le sol se réorganise lentement.
«Ce processus a déjà été mesuré en laboratoire ou interprété à partir des ondes sismiques, relève un des auteurs de l’étude, Eric Fielding, du Jet Propulsion Laboratory de la NASA. Mais c’est la première fois que l’on peut observer la baisse de volume et l’endroit où elle opère.» Dans ce cas, entre 200 et 900 mètres de profondeur. D’après les chercheurs, comme la tension a été relâchée, la faille sous la ville de Bam ne devrait plus présenter de risque pendant quelques millénaires. Une rupture peut toutefois se produire au niveau d’une autre faille. «D’autant que, lors d’un séisme, il y a un transfert des contraintes sur les régions voisines», rappelle Nicolas Deichmann.
Lucia Sillig
Pendant les trois ans et demi qui ont suivi le séisme de Bam, en Iran, des scientifiques ont observé la zone par satellite
En 2003, un tremblement de terre dévastait la ville de Bam, en Iran. Pourtant le glissement de plusieurs mètres mesuré en profondeur ne se voyait que très peu en surface. D’après des chercheurs américains, qui ont publié leurs travaux dans la revue Nature du 5 mars, le sol s’est en quelque sorte tuméfié, puis a lentement guéri. C’est la première fois que ce phénomène est observé «en direct», grâce au satellite européen Envisat. Une bonne nouvelle pour les sismologues, qui craignaient que toutes les contraintes souterraines ne se soient pas encore relâchées et qu’il faille s’attendre à d’autres secousses.
Le séisme de magnitude 6,6 avait fait 30 000 morts. La faille, enterrée à environ un kilomètre de profondeur, passait juste sous la ville. Des études ont montré qu’il y avait eu un glissement de deux à trois mètres d’un côté par rapport à l’autre. Alors qu’on ne retrouvait qu’un déplacement de 25 centimètres en surface. «D’une façon ou d’une autre, le glissement avait dû être absorbé», relèvent les auteurs.
Publicité
Dès le douzième jour après le séisme et pendant trois ans et demi, les scientifiques ont analysé le terrain grâce à des micro-ondes envoyées par le satellite et réfléchies par la surface de la Terre. Ils ont détecté un affaissement progressif du sol de trois centimètres sur une zone de 200 à 400 mètres de large, directement au-dessus de la faille. Il s’agit du «processus de guérison» de la zone tuméfiée. «Avant le tremblement de terre, le sol est très compact, explique Nicolas Deichmann, de l’Institut suisse de sismologie. Comme un mur dont les briques sont bien arrangées. Si on le casse, le tas de débris aura un volume supérieur au mur.» Après le séisme, le sol se réorganise lentement.
«Ce processus a déjà été mesuré en laboratoire ou interprété à partir des ondes sismiques, relève un des auteurs de l’étude, Eric Fielding, du Jet Propulsion Laboratory de la NASA. Mais c’est la première fois que l’on peut observer la baisse de volume et l’endroit où elle opère.» Dans ce cas, entre 200 et 900 mètres de profondeur. D’après les chercheurs, comme la tension a été relâchée, la faille sous la ville de Bam ne devrait plus présenter de risque pendant quelques millénaires. Une rupture peut toutefois se produire au niveau d’une autre faille. «D’autant que, lors d’un séisme, il y a un transfert des contraintes sur les régions voisines», rappelle Nicolas Deichmann.
quarta-feira, março 04, 2009
Eutanásia legalizada amanhã em Washington
Expresso (Lisboa)
Washington deverá tornar-se amanhã no segundo Estado norte-americano a permitir a eutanásia. Com a entrada em vigor da lei que permite a "morte com dignidade" - aprovada por referendo em Novembro - os médicos vão poder prescrever a administração de doses fatais de medicamentos a pacientes para os quais se vaticinem menos de seis meses de vida.
Até ao momento, este procedimento apenas era autorizado num outro Estado americano, em Oregon, embora no Estado de Montana um tribunal tenha deliberado recentemente que os doentes terminais têm o direito de recorrer aos clínicos para pôr termo à vida.
Os partidários da legislação que vai entrar em vigor no Estado de Washington - na sequência de um acórdão de 2006 do Supremo Tribunal - consideram a expressão "ajuda para morrer" mais adequada do que "suicídio assistido ou eutanásia", segundo Terry Barnett, que preside ao grupo Compaixão e Escolhas, defensor da prática.
Para Barnett, os doentes que tomam esta opção não podem ser vistos como alguém que comete suicídio pois, na verdade, eles não querem acabar com a vida, querem pôr fim a um sofrimento que pode ser "pior do que a morte".
De acordo com os defensores da nova lei, a par da sua entrada em vigor serão colocadas em práticas numerosas protecções que visam evitar abusos.
Para já, apenas poderão recorrer a esta medida os doentes maiores de idade que residam permanentemente no Estado. Além do pedido a ser feito pelo próprio paciente, serão exigidos dois pareceres médicos.
Portugal discute eutanásia
Recorde-se que os temas da eutanásia e do casamento homossexual foram introduzidos recentemente na agenda do PS. O debate sobre a legalização da eutanásia foi proposto pelo deputado Marcos Sá numa moção sectorial.
A discussão da eutanásia em Portugal tem sido considerada "pertinente" para uns e "questão de moda" para outros.
Ontem, num debate sobre "Eutanásia e Suicídio Medicamente Assistido: Legalização ou Não?", realizado em Coimbra, o presidente do conselho directivo da Faculdade de Direito da Universidade de Coimbra, Faria Costa, manifestou-se a favor da eutanásia "em certas circunstâncias", nomeadamente "em situações terminais, quando a dor esteja para além do razoável e com um pedido sério e inequívoco do paciente". Para este penalista, "a discussão é profundamente pertinente, porque arranca de situações concretas da actualidade".
Opinião contrária tem o presidente da Secção Regional do Centro da Ordem dos Médicos, José Manuel Silva, para quem "por razões mediáticas e políticas estamos a discutir a eutanásia, porque enquanto falamos de eutanásia não falamos de de outros problemas mais graves".
O moderador do debate em Coimbra, Duarte Nuno Vieira - presidente do Instituto de Medicina Legal - considerou por sua vez, ao introduzir o tema, que "vários estudos sobre o posicionamento do público, dos médicos e dos doentes sobre a eutanásia e o suicídio medicamente assistido não têm sido suficientemente utilizados, quer pela classe médica, quer pelo legislador, para iluminar a problemática".
Washington deverá tornar-se amanhã no segundo Estado norte-americano a permitir a eutanásia. Com a entrada em vigor da lei que permite a "morte com dignidade" - aprovada por referendo em Novembro - os médicos vão poder prescrever a administração de doses fatais de medicamentos a pacientes para os quais se vaticinem menos de seis meses de vida.
Até ao momento, este procedimento apenas era autorizado num outro Estado americano, em Oregon, embora no Estado de Montana um tribunal tenha deliberado recentemente que os doentes terminais têm o direito de recorrer aos clínicos para pôr termo à vida.
Os partidários da legislação que vai entrar em vigor no Estado de Washington - na sequência de um acórdão de 2006 do Supremo Tribunal - consideram a expressão "ajuda para morrer" mais adequada do que "suicídio assistido ou eutanásia", segundo Terry Barnett, que preside ao grupo Compaixão e Escolhas, defensor da prática.
Para Barnett, os doentes que tomam esta opção não podem ser vistos como alguém que comete suicídio pois, na verdade, eles não querem acabar com a vida, querem pôr fim a um sofrimento que pode ser "pior do que a morte".
De acordo com os defensores da nova lei, a par da sua entrada em vigor serão colocadas em práticas numerosas protecções que visam evitar abusos.
Para já, apenas poderão recorrer a esta medida os doentes maiores de idade que residam permanentemente no Estado. Além do pedido a ser feito pelo próprio paciente, serão exigidos dois pareceres médicos.
Portugal discute eutanásia
Recorde-se que os temas da eutanásia e do casamento homossexual foram introduzidos recentemente na agenda do PS. O debate sobre a legalização da eutanásia foi proposto pelo deputado Marcos Sá numa moção sectorial.
A discussão da eutanásia em Portugal tem sido considerada "pertinente" para uns e "questão de moda" para outros.
Ontem, num debate sobre "Eutanásia e Suicídio Medicamente Assistido: Legalização ou Não?", realizado em Coimbra, o presidente do conselho directivo da Faculdade de Direito da Universidade de Coimbra, Faria Costa, manifestou-se a favor da eutanásia "em certas circunstâncias", nomeadamente "em situações terminais, quando a dor esteja para além do razoável e com um pedido sério e inequívoco do paciente". Para este penalista, "a discussão é profundamente pertinente, porque arranca de situações concretas da actualidade".
Opinião contrária tem o presidente da Secção Regional do Centro da Ordem dos Médicos, José Manuel Silva, para quem "por razões mediáticas e políticas estamos a discutir a eutanásia, porque enquanto falamos de eutanásia não falamos de de outros problemas mais graves".
O moderador do debate em Coimbra, Duarte Nuno Vieira - presidente do Instituto de Medicina Legal - considerou por sua vez, ao introduzir o tema, que "vários estudos sobre o posicionamento do público, dos médicos e dos doentes sobre a eutanásia e o suicídio medicamente assistido não têm sido suficientemente utilizados, quer pela classe médica, quer pelo legislador, para iluminar a problemática".
domingo, março 01, 2009
Militares rusos se preparan para una guerra informática a gran escala
Novosti (Moscovo)
27/ 02/ 2009
Dentro de dos o tres años, Rusia se verá involucrada tal vez en una guerra a gran escala que tendrá como escenario las redes informáticas, y como objetivo, el de obstruir la labor de las principales entidades militares, industriales y administrativas, además de ejercer una influencia psicológica sobre la tropa y la población. Este pronóstico hecho por el coronel general Anatoli Nogovitsin, jefe adjunto del Estado Mayor General de las Fuerzas Armadas de Rusia, desconcertó a los expertos, escribe hoy el diario Izvestia.
Nogovitsin se muestra convencido de que el Estado Mayor General podrá desarrollar un sistema de prevención para detectar e identificar posibles errores en el software o fallos en el funcionamiento de las redes informáticas. Para empezar, Defensa se propone elaborar una estrategia global de protección informática del Estado.
"No creo que sea una tarea de mucha actualidad, pues no hemos visto hasta la fecha un solo caso de guerra informáticas", comentó Vitali Kamliuk, principal experto de la empresa de protección antivirus Kaspersky Lab. Los ataques de hackers contra Estonia y Georgia "no cuentan", por tratarse de "actuación de grupos sueltos, no del Estado". "Una guerra auténtica requiere de grandes recursos y su efecto, además, no es tan obvio", agregó.
La sociedad moderna, admitió, tiene un fuerte grado de dependencia con respecto a ordenadores y redes informáticas pero cada Estado, aun formando parte de la web global, preserva bastante autonomía. La desconexión del mundo externo, por la razón que fuese, no va a parar el flujo de la información dentro del país.
Un oficial del Servicio federal de seguridad, FSB, calificó de "rara" la declaración de Nogovitsin y recordó que "estas cuestiones incumben al Consejo nacional de seguridad, no a un solo departamento". "Además, los militares han de saber que ya tenemos mecanismos de protección informática y que los vamos perfeccionando constantemente", agregó.
El ministro ruso de Defensa, Anatoli Serdiukov, tiene desde hace poco a un auxiliar especial para tecnologías informáticas y de telecomunicaciones cuya función es "preservar y fomentar las bases del sistema de control, así como aumentar su eficiencia". Los expertos no descartan que las palabras de Nogovitsin sean una especie de reporte sobre tal labor.
27/ 02/ 2009
Dentro de dos o tres años, Rusia se verá involucrada tal vez en una guerra a gran escala que tendrá como escenario las redes informáticas, y como objetivo, el de obstruir la labor de las principales entidades militares, industriales y administrativas, además de ejercer una influencia psicológica sobre la tropa y la población. Este pronóstico hecho por el coronel general Anatoli Nogovitsin, jefe adjunto del Estado Mayor General de las Fuerzas Armadas de Rusia, desconcertó a los expertos, escribe hoy el diario Izvestia.
Nogovitsin se muestra convencido de que el Estado Mayor General podrá desarrollar un sistema de prevención para detectar e identificar posibles errores en el software o fallos en el funcionamiento de las redes informáticas. Para empezar, Defensa se propone elaborar una estrategia global de protección informática del Estado.
"No creo que sea una tarea de mucha actualidad, pues no hemos visto hasta la fecha un solo caso de guerra informáticas", comentó Vitali Kamliuk, principal experto de la empresa de protección antivirus Kaspersky Lab. Los ataques de hackers contra Estonia y Georgia "no cuentan", por tratarse de "actuación de grupos sueltos, no del Estado". "Una guerra auténtica requiere de grandes recursos y su efecto, además, no es tan obvio", agregó.
La sociedad moderna, admitió, tiene un fuerte grado de dependencia con respecto a ordenadores y redes informáticas pero cada Estado, aun formando parte de la web global, preserva bastante autonomía. La desconexión del mundo externo, por la razón que fuese, no va a parar el flujo de la información dentro del país.
Un oficial del Servicio federal de seguridad, FSB, calificó de "rara" la declaración de Nogovitsin y recordó que "estas cuestiones incumben al Consejo nacional de seguridad, no a un solo departamento". "Además, los militares han de saber que ya tenemos mecanismos de protección informática y que los vamos perfeccionando constantemente", agregó.
El ministro ruso de Defensa, Anatoli Serdiukov, tiene desde hace poco a un auxiliar especial para tecnologías informáticas y de telecomunicaciones cuya función es "preservar y fomentar las bases del sistema de control, así como aumentar su eficiencia". Los expertos no descartan que las palabras de Nogovitsin sean una especie de reporte sobre tal labor.