sábado, maio 30, 2009
Israël se prépare à la guerre sur tous les fronts
Le Temps (Genève)
Exercice de simulation d’une attaque chimique. (AFP)
por Serge Dumont
«Turning point 3». Tel est le nom de l’exercice de cinq jours qui mobilisera à partir de dimanche l’ensemble de la population et de l’armée israélienne contre les risques d’une attaque de grande ampleur. Selon le scénario mis au point pour l’occasion, le déclenchement de nouvelles violences dans la bande de Gaza provoquerait l’insurrection de la population arabe israélienne puis le soulèvement des Palestiniens de Cisjordanie. S’ensuivrait une forte tension à la frontière nord de l’Etat hébreu qui déboucherait sur une guerre avec le Hezbollah, avec la Syrie et bien sûr avec l’Iran. Dans ce cadre, des roquettes palestiniennes Qassam, des roquettes iraniennes Fajr tirées à partir du Liban et de la Syrie ainsi que les nouveaux missiles iraniens s’abattraient sur l’ensemble de l’Etat hébreu.
Irréaliste? En tout cas, de nombreux réservistes de la défense passive sont conviés à l’exercice. Mais d’autres manœuvres – beaucoup plus discrètes celles-là – sont d’ores et déjà en cours. Ces dernières semaines, des servants de batteries de missiles antimissiles Patriot ont ainsi été mobilisés pour une remise à niveau. Dans la foulée, des essais secrets d’un nouveau missile antimissile de fabrication israélienne ont été effectués. Avec succès, semble-t-il.
Quant à l’armée de l’air, elle a organisé durant trois jours des exercices de combat aérien censés opposer ses F-16 à de faux Mig 29 syriens. Enfin, des agents de l’Unité spéciale de sécurité de l’information (une branche des renseignements miliaires) ont simulé des tentatives d’effraction dans les bases les plus secrètes de l’armée afin de détecter les failles des procédures de sécurité.
L’opération «Turnig point 3» est sans conteste la plus importante de l’histoire de l’Etat hébreu. La plus coûteuse aussi. A partir de dimanche, elle mobilisera 252 centres de crise répartis sur l’ensemble du territoire national ainsi que les administrations, les écoles et les hôpitaux. Le cabinet restreint de la sécurité siégera de manière permanente et dans un endroit gardé secret.
Le moment le plus sensible de «Turning point 3» se déroulera mardi. Ce jour-là, au gré des alertes, les différents sièges du gouvernement et de la Knesset, l’état-major de l’armée et même le cabinet du premier ministre Benyamin Netanyahou seront évacués. Les élèves des écoles se précipiteront aux abris et la vie s’interrompra dans les villes où résonneront les sirènes.
Selon Benyamin Netanyahou, ces manœuvres ne seraient «qu’un exercice de routine prévu de longue date, annoncé dans la presse et visant à mieux coordonner les services d’alerte civils et militaires». Mais pour le vice-ministre de la Défense, Matan Vilnaï, «Turning point 3» est tout à fait réaliste. «Cet exercice se base sur la réalité, pas sur la fiction, a-t-il déclaré au début de la semaine. Nous ne voulons effrayer personne, mais devons nous préparer à un événement inéluctable.»
De fait, dans la perspective de ces manœuvres, les troupes israéliennes basées le long de la «ligne bleue» (la frontière avec le Liban) ont été placées en état de pré-alerte. Parce que le leader du Hezbollah Hassan Nasrallah a estimé dans un discours télévisé que «Turning point 3» servirait, selon lui, à «préparer une nouvelle agression contre le Liban». Et parce que l’organisation chiite vient de déployer de nouvelles batteries de missiles de moyenne portée susceptibles de frapper le cœur de l’Etat hébreu, ce qui constitue précisément le thème de «Turning point 3».
Les Israéliens – dont 80% se déclarent favorables à une frappe sur l’Iran selon les derniers sondages – sont en tout cas persuadés que les manœuvres de la semaine prochaine n’ont pas été déclenchées par hasard. Et qu’elles servent à «chauffer» l’opinion en vue d’une période difficile. Ils le sont d’autant plus que le gouvernement vient d’annoncer la prochaine distribution de masques à gaz à la population civile. Ceux-ci avaient été distribués à l’occasion de la première guerre du Golfe (1991) et récupérés en 2006. Ils ont depuis lors été remis en état et dotés de filtres plus performants.
Exercice de simulation d’une attaque chimique. (AFP)
por Serge Dumont
«Turning point 3». Tel est le nom de l’exercice de cinq jours qui mobilisera à partir de dimanche l’ensemble de la population et de l’armée israélienne contre les risques d’une attaque de grande ampleur. Selon le scénario mis au point pour l’occasion, le déclenchement de nouvelles violences dans la bande de Gaza provoquerait l’insurrection de la population arabe israélienne puis le soulèvement des Palestiniens de Cisjordanie. S’ensuivrait une forte tension à la frontière nord de l’Etat hébreu qui déboucherait sur une guerre avec le Hezbollah, avec la Syrie et bien sûr avec l’Iran. Dans ce cadre, des roquettes palestiniennes Qassam, des roquettes iraniennes Fajr tirées à partir du Liban et de la Syrie ainsi que les nouveaux missiles iraniens s’abattraient sur l’ensemble de l’Etat hébreu.
Irréaliste? En tout cas, de nombreux réservistes de la défense passive sont conviés à l’exercice. Mais d’autres manœuvres – beaucoup plus discrètes celles-là – sont d’ores et déjà en cours. Ces dernières semaines, des servants de batteries de missiles antimissiles Patriot ont ainsi été mobilisés pour une remise à niveau. Dans la foulée, des essais secrets d’un nouveau missile antimissile de fabrication israélienne ont été effectués. Avec succès, semble-t-il.
Quant à l’armée de l’air, elle a organisé durant trois jours des exercices de combat aérien censés opposer ses F-16 à de faux Mig 29 syriens. Enfin, des agents de l’Unité spéciale de sécurité de l’information (une branche des renseignements miliaires) ont simulé des tentatives d’effraction dans les bases les plus secrètes de l’armée afin de détecter les failles des procédures de sécurité.
L’opération «Turnig point 3» est sans conteste la plus importante de l’histoire de l’Etat hébreu. La plus coûteuse aussi. A partir de dimanche, elle mobilisera 252 centres de crise répartis sur l’ensemble du territoire national ainsi que les administrations, les écoles et les hôpitaux. Le cabinet restreint de la sécurité siégera de manière permanente et dans un endroit gardé secret.
Le moment le plus sensible de «Turning point 3» se déroulera mardi. Ce jour-là, au gré des alertes, les différents sièges du gouvernement et de la Knesset, l’état-major de l’armée et même le cabinet du premier ministre Benyamin Netanyahou seront évacués. Les élèves des écoles se précipiteront aux abris et la vie s’interrompra dans les villes où résonneront les sirènes.
Selon Benyamin Netanyahou, ces manœuvres ne seraient «qu’un exercice de routine prévu de longue date, annoncé dans la presse et visant à mieux coordonner les services d’alerte civils et militaires». Mais pour le vice-ministre de la Défense, Matan Vilnaï, «Turning point 3» est tout à fait réaliste. «Cet exercice se base sur la réalité, pas sur la fiction, a-t-il déclaré au début de la semaine. Nous ne voulons effrayer personne, mais devons nous préparer à un événement inéluctable.»
De fait, dans la perspective de ces manœuvres, les troupes israéliennes basées le long de la «ligne bleue» (la frontière avec le Liban) ont été placées en état de pré-alerte. Parce que le leader du Hezbollah Hassan Nasrallah a estimé dans un discours télévisé que «Turning point 3» servirait, selon lui, à «préparer une nouvelle agression contre le Liban». Et parce que l’organisation chiite vient de déployer de nouvelles batteries de missiles de moyenne portée susceptibles de frapper le cœur de l’Etat hébreu, ce qui constitue précisément le thème de «Turning point 3».
Les Israéliens – dont 80% se déclarent favorables à une frappe sur l’Iran selon les derniers sondages – sont en tout cas persuadés que les manœuvres de la semaine prochaine n’ont pas été déclenchées par hasard. Et qu’elles servent à «chauffer» l’opinion en vue d’une période difficile. Ils le sont d’autant plus que le gouvernement vient d’annoncer la prochaine distribution de masques à gaz à la population civile. Ceux-ci avaient été distribués à l’occasion de la première guerre du Golfe (1991) et récupérés en 2006. Ils ont depuis lors été remis en état et dotés de filtres plus performants.
quinta-feira, maio 21, 2009
Creado un analgésico más potente que la morfina
El Pais (Madrid)
Investigadores del Consejo Superior de Investigaciones Científicas (CSIC) han hallado un derivado sintético de la morfina que, al ser administrado en ratas, muestra un efecto analgésico cien veces más potente y dos veces más duradero que la morfina, además de tener menos efectos secundarios. El hallazgo, publicado en la revista Journal of Medicinal Chemistry, abre la puerta al diseño de nuevos y mejores analgésicos para el tratamiento del dolor crónico y severo.
"A pesar de que en los últimos 40 años se han descubierto nuevos compuestos con capacidad analgésica, no ha habido avances significativos en el repertorio de fármacos disponibles para el tratamiento del dolor crónico", reconoce el investigador del CSIC Gregorio Valencia, uno de los autores de la investigación. "Esta es la primera vez que se halla un derivado azucarado de la morfina que tiene más capacidad analgésica que el fármaco original", destaca.
Los investigadores han partido de un metabolito natural de la propia morfina. Además, señala Valencia, "no produce tolerancia tras una administración ni cambios significativos en el metabolismo". Los investigadores tampoco observaron cambios en la presión sanguínea ni en el ritmo cardíaco de las ratas estudiada.
El dolor crónico es un problema de salud de grandes dimensiones sociales que, además del propio sufrimiento e incapacidad de quien lo padece, causa grandes costes médicos y pérdida de productividad. "A pesar de los recientes avances en química medica y biología molecular, aún falta una solución efectiva para el dolor crónico y severo. El fármaco más usado, la morfina, tiene importantes efectos secundarios: depresión respiratoria, tolerancia, dependencia y estreñimiento", explica Gemma Arsequell, también investigadora del Instituto de Química Avanzada de Cataluña (CSIC en Barcelona).
La morfina actúa sobre el sistema nervioso central, pero sólo una pequeña cantidad de la dosis es capaz de cruzar la barrera sangre-cerebro y alcanzar los receptores opioides. Tras ser administrada, la morfina es metabolizada por las enzimas del hígado y hasta un 90% de la dosis se convierte en los metabolitos M3G y M6G, más fáciles de excretar por los riñones. "Durante mucho tiempo se pensó que estos metabolitos cumplían tan sólo una función desintoxicante y no tenían ninguna actividad biológica, sin embargo, se ha encontrado que M6G sí que tiene propiedades farmacológicas similares a las de la morfina", explica Valencia. El proyecto ha sido financiado por la Fundació La Marató de TV3.
Investigadores del Consejo Superior de Investigaciones Científicas (CSIC) han hallado un derivado sintético de la morfina que, al ser administrado en ratas, muestra un efecto analgésico cien veces más potente y dos veces más duradero que la morfina, además de tener menos efectos secundarios. El hallazgo, publicado en la revista Journal of Medicinal Chemistry, abre la puerta al diseño de nuevos y mejores analgésicos para el tratamiento del dolor crónico y severo.
"A pesar de que en los últimos 40 años se han descubierto nuevos compuestos con capacidad analgésica, no ha habido avances significativos en el repertorio de fármacos disponibles para el tratamiento del dolor crónico", reconoce el investigador del CSIC Gregorio Valencia, uno de los autores de la investigación. "Esta es la primera vez que se halla un derivado azucarado de la morfina que tiene más capacidad analgésica que el fármaco original", destaca.
Los investigadores han partido de un metabolito natural de la propia morfina. Además, señala Valencia, "no produce tolerancia tras una administración ni cambios significativos en el metabolismo". Los investigadores tampoco observaron cambios en la presión sanguínea ni en el ritmo cardíaco de las ratas estudiada.
El dolor crónico es un problema de salud de grandes dimensiones sociales que, además del propio sufrimiento e incapacidad de quien lo padece, causa grandes costes médicos y pérdida de productividad. "A pesar de los recientes avances en química medica y biología molecular, aún falta una solución efectiva para el dolor crónico y severo. El fármaco más usado, la morfina, tiene importantes efectos secundarios: depresión respiratoria, tolerancia, dependencia y estreñimiento", explica Gemma Arsequell, también investigadora del Instituto de Química Avanzada de Cataluña (CSIC en Barcelona).
La morfina actúa sobre el sistema nervioso central, pero sólo una pequeña cantidad de la dosis es capaz de cruzar la barrera sangre-cerebro y alcanzar los receptores opioides. Tras ser administrada, la morfina es metabolizada por las enzimas del hígado y hasta un 90% de la dosis se convierte en los metabolitos M3G y M6G, más fáciles de excretar por los riñones. "Durante mucho tiempo se pensó que estos metabolitos cumplían tan sólo una función desintoxicante y no tenían ninguna actividad biológica, sin embargo, se ha encontrado que M6G sí que tiene propiedades farmacológicas similares a las de la morfina", explica Valencia. El proyecto ha sido financiado por la Fundació La Marató de TV3.
quarta-feira, maio 20, 2009
El agua puede existir en Marte a 50 grados bajo cero
El Mundo (Madrid)
por Rosa M. Tristán | Madrid
Imagen de agua helada en el Polo Norte de Marte. | ESA
El agua que en el pasado corrió por la corteza de Marte era líquida y no se congeló aún estando a muchos grados bajo cero porque en ella estaba disuelta una solución salina de minerales que la mantenían en ese estado. Un equipo de científicos españoles acaba de dar con la clave de este misterio: han encontrado un modelo de la composición de ese fluido que pudo haber creado los cauces, los lagos y los valles que han captado las cámaras de las sondas enviadas al planeta rojo. Es más, apuntan que todavía podría existir ese agua líquida.
El trabajo, publicado en la revista Nature, viene a dar respuesta a una incógnita sobre el agua que dio forma al astro más cercano a la Tierra, muy visitado por sondas desde hace 45 años. Si su temperatura, dada su distancia del Sol, está entre -87ºC y -46ºC, ¿cómo podía haber agua líquida en lugar de hielo?
Alberto G. Fairén, un español que lleva un tiempo trabajando para la NASA, también se la hizo y decidió retomar un experimento sobre soluciones salinas que se había iniciado en el marco de las investigaciones en Río Tinto, un lugar con aguas con PH muy ácido, con alto contenido en sales ferruginosas, que le dan un aspecto rojizo y único, similar a Marte.
En concreto, se centró en una de las tres hipótesis que explicarían la orografía del planeta. Ni la de la existencia de un gas con efecto invernadero que calentó la superficie, ni la de posibles volcanes eran confirmados por los datos recogidos por las sondas espaciales Viking, Pathfinder, Opportunity y Spirit.
Y respecto a la propuesta de que hubiera sido una solución salina, el problema era que el contenido de sal necesario para que no se congelase el agua, hacía de éste un elemento tan viscoso que no era posible que hubiera creado ríos, gargantas y bordes oceánicos.
Pero ahí estaba la clave. «Lo que hemos hecho es hacer un modelo de solución salina con los componentes detectados por las sondas que sí hacen posible que el agua sea líquida hasta a 50ºC bajo cero, y la concentración de sales es de un 6%, como los oceános», explica Ricardo Amils, del Centro de Biología Molecular de la Universidad Autónoma de Madrid.
Amils destaca que, incluso a una presión de CO2 de dos atmósferas, tampoco cambiaría este agua marciana de estado. El investigador explica que «eso significa que a la presión actual de Marte podría haber agua líquida en la actualidad, lo que confirmaría el indicio de aquellas gotas detectadas por la sonda Phoenix». Y va más allá: «Si en Río Tinto hay microorganismos que viven en ese hábitat, también podrían vivir microorgaismos en Marte, o podrían haber vivido».
por Rosa M. Tristán | Madrid
Imagen de agua helada en el Polo Norte de Marte. | ESA
El agua que en el pasado corrió por la corteza de Marte era líquida y no se congeló aún estando a muchos grados bajo cero porque en ella estaba disuelta una solución salina de minerales que la mantenían en ese estado. Un equipo de científicos españoles acaba de dar con la clave de este misterio: han encontrado un modelo de la composición de ese fluido que pudo haber creado los cauces, los lagos y los valles que han captado las cámaras de las sondas enviadas al planeta rojo. Es más, apuntan que todavía podría existir ese agua líquida.
El trabajo, publicado en la revista Nature, viene a dar respuesta a una incógnita sobre el agua que dio forma al astro más cercano a la Tierra, muy visitado por sondas desde hace 45 años. Si su temperatura, dada su distancia del Sol, está entre -87ºC y -46ºC, ¿cómo podía haber agua líquida en lugar de hielo?
Alberto G. Fairén, un español que lleva un tiempo trabajando para la NASA, también se la hizo y decidió retomar un experimento sobre soluciones salinas que se había iniciado en el marco de las investigaciones en Río Tinto, un lugar con aguas con PH muy ácido, con alto contenido en sales ferruginosas, que le dan un aspecto rojizo y único, similar a Marte.
En concreto, se centró en una de las tres hipótesis que explicarían la orografía del planeta. Ni la de la existencia de un gas con efecto invernadero que calentó la superficie, ni la de posibles volcanes eran confirmados por los datos recogidos por las sondas espaciales Viking, Pathfinder, Opportunity y Spirit.
Y respecto a la propuesta de que hubiera sido una solución salina, el problema era que el contenido de sal necesario para que no se congelase el agua, hacía de éste un elemento tan viscoso que no era posible que hubiera creado ríos, gargantas y bordes oceánicos.
Pero ahí estaba la clave. «Lo que hemos hecho es hacer un modelo de solución salina con los componentes detectados por las sondas que sí hacen posible que el agua sea líquida hasta a 50ºC bajo cero, y la concentración de sales es de un 6%, como los oceános», explica Ricardo Amils, del Centro de Biología Molecular de la Universidad Autónoma de Madrid.
Amils destaca que, incluso a una presión de CO2 de dos atmósferas, tampoco cambiaría este agua marciana de estado. El investigador explica que «eso significa que a la presión actual de Marte podría haber agua líquida en la actualidad, lo que confirmaría el indicio de aquellas gotas detectadas por la sonda Phoenix». Y va más allá: «Si en Río Tinto hay microorganismos que viven en ese hábitat, también podrían vivir microorgaismos en Marte, o podrían haber vivido».
terça-feira, maio 19, 2009
Descubierto el antepasado humano más primitivo
El Mundo (Madrid)
por Rosa M. Tristán | Madrid
Hallan un ancestro de los primates de 47 millones de años de antigüedad
Un equipo internacional de científicos acaba de presentar en Nueva York el ancestro más primitivo de los humanos y todos los primates modernos que se ha descubierto hasta ahora. Se trata de un prosimio relacionado con los antropoides, similar a lo lémures actuales, que vivió hace 47 millones de años en Grube Messel, cerca de Darmstadt (Alemania).
Los investigadores localizaron el 95% el esqueleto fosilizado de esta especie, 20 veces más antiguo que la mayoría de los restos relacionados con la evolución humana. En honor a Darwin, de cuyo nacimiento se cumplen este año dos siglos, y al lugar donde fue descubierto el fósil, la especie ha sido bautizada como 'Darwinius masillae'.
El descubrimiento ha sido descrito por sus descubridores como "la octava maravilla del mundo", y consideran que su impacto en el mundo de la paleontología será algo así como "un asteroide caído en la Tierra" al considerar que se ha completado la búsqueda de una conexión directa entre los humanos y el resto del reino animal que inició Darwin con su Teoría del Origen de las Especies.
Según ha declarado el famoso naturalista y divulgador británico sir David Attenborough, Darwin "se habría emocionado" de haber visto el fósil porque expresa lo que el ser humano es y de dónde procede. "Esta pequeña criatura va a enseñarnos nuestra conexión con el resto de los mamíferos. Es el único que nos conecta directamente con ellos", añadió. "El eslabón que faltaba por fin se ha encontrado".
Gracias a lo completo que se encuentra, ha sido posible analizar y comprender la paleobiología de los primates del Eoceno como nunca se había conseguido hasta ahora. Los resultados de la investigación se acaban de publicar en la revista PLoS ONE.
Ida, como ha sido bautizado este primitivo prosimio europeo, fue descubierto en 1983 por coleccionistas privados que fueron vendiéndolo en partes. Finalmente, pudieron recuperarse los restos y se inició la restauración, que se ha terminado ahora.
Su análisis ha revelado que se trataba de una hembra joven. Por sus manos y sus pies, y la disposición de los dedos, se sabe que era un primate. También se ha podido averiguar, por su tripa, que era un herbívoro que comía frutas, semillas y hojas. Cuando murió, Ida no tenía más de nueve meses.
Los investigadores, dirigidos por Jens L. Franzen, explican en su artículo que en el Eoceno, después de la extinción de los dinosaurios, comenzó a establecerse el modelo de mamíferos modernos que hoy conocemos, como los caballos, las ballenas y, cómo no, los primeros primates, que disfrutaban de un clima subtropical en Europa y buena parte de todo el planeta.
Ida carece de dos características anatómicas predominantes en los lemures: una especie de garra en formación en el segundo dígito del pie y una fila fundida de dientes en mitad de su quijada inferior. Además, el revestimiento de sus ojos es como el nuestro, por lo que quizás podían ver en tres dimensiones.
Como todos los primates, también tenía cinco dedos en cada mano, lo que era muy útil para subir a los árboles y recoger fruta, y unos brazos flexibles y cortos, como las piernas, y también como nuestra propia especie. Las radiografías han revelado que tenía una muñeca rota, fractura que pudo llevarla a una muerte temprana. En aquella época, el lago Messel se cubría a menudo de un gas de dióxido de carbono de origen volcánico, lo que hizo más difícil su supervivencia con un hueso roto.
Finalmente, se hundió en el agua, quedando atrapada en su parte inferior, donde unas condiciones únicas permitieron que sus restos se preservaran a lo largo de 47 millones de años.
"Este fósil va a obligarnos a reescribir nuestros conocimientos sobre la evolución temprana de los primates", ha asegurado el paleontólogo Jörg Habersetzer, del Instituto Senckenberg de Frankfurt (Alemania).
por Rosa M. Tristán | Madrid
Hallan un ancestro de los primates de 47 millones de años de antigüedad
Un equipo internacional de científicos acaba de presentar en Nueva York el ancestro más primitivo de los humanos y todos los primates modernos que se ha descubierto hasta ahora. Se trata de un prosimio relacionado con los antropoides, similar a lo lémures actuales, que vivió hace 47 millones de años en Grube Messel, cerca de Darmstadt (Alemania).
Los investigadores localizaron el 95% el esqueleto fosilizado de esta especie, 20 veces más antiguo que la mayoría de los restos relacionados con la evolución humana. En honor a Darwin, de cuyo nacimiento se cumplen este año dos siglos, y al lugar donde fue descubierto el fósil, la especie ha sido bautizada como 'Darwinius masillae'.
El descubrimiento ha sido descrito por sus descubridores como "la octava maravilla del mundo", y consideran que su impacto en el mundo de la paleontología será algo así como "un asteroide caído en la Tierra" al considerar que se ha completado la búsqueda de una conexión directa entre los humanos y el resto del reino animal que inició Darwin con su Teoría del Origen de las Especies.
Según ha declarado el famoso naturalista y divulgador británico sir David Attenborough, Darwin "se habría emocionado" de haber visto el fósil porque expresa lo que el ser humano es y de dónde procede. "Esta pequeña criatura va a enseñarnos nuestra conexión con el resto de los mamíferos. Es el único que nos conecta directamente con ellos", añadió. "El eslabón que faltaba por fin se ha encontrado".
Gracias a lo completo que se encuentra, ha sido posible analizar y comprender la paleobiología de los primates del Eoceno como nunca se había conseguido hasta ahora. Los resultados de la investigación se acaban de publicar en la revista PLoS ONE.
Ida, como ha sido bautizado este primitivo prosimio europeo, fue descubierto en 1983 por coleccionistas privados que fueron vendiéndolo en partes. Finalmente, pudieron recuperarse los restos y se inició la restauración, que se ha terminado ahora.
Su análisis ha revelado que se trataba de una hembra joven. Por sus manos y sus pies, y la disposición de los dedos, se sabe que era un primate. También se ha podido averiguar, por su tripa, que era un herbívoro que comía frutas, semillas y hojas. Cuando murió, Ida no tenía más de nueve meses.
Los investigadores, dirigidos por Jens L. Franzen, explican en su artículo que en el Eoceno, después de la extinción de los dinosaurios, comenzó a establecerse el modelo de mamíferos modernos que hoy conocemos, como los caballos, las ballenas y, cómo no, los primeros primates, que disfrutaban de un clima subtropical en Europa y buena parte de todo el planeta.
Ida carece de dos características anatómicas predominantes en los lemures: una especie de garra en formación en el segundo dígito del pie y una fila fundida de dientes en mitad de su quijada inferior. Además, el revestimiento de sus ojos es como el nuestro, por lo que quizás podían ver en tres dimensiones.
Como todos los primates, también tenía cinco dedos en cada mano, lo que era muy útil para subir a los árboles y recoger fruta, y unos brazos flexibles y cortos, como las piernas, y también como nuestra propia especie. Las radiografías han revelado que tenía una muñeca rota, fractura que pudo llevarla a una muerte temprana. En aquella época, el lago Messel se cubría a menudo de un gas de dióxido de carbono de origen volcánico, lo que hizo más difícil su supervivencia con un hueso roto.
Finalmente, se hundió en el agua, quedando atrapada en su parte inferior, donde unas condiciones únicas permitieron que sus restos se preservaran a lo largo de 47 millones de años.
"Este fósil va a obligarnos a reescribir nuestros conocimientos sobre la evolución temprana de los primates", ha asegurado el paleontólogo Jörg Habersetzer, del Instituto Senckenberg de Frankfurt (Alemania).
quinta-feira, maio 14, 2009
Hallan en el ARN nuevas pistas sobre el origen de la vida en la Tierra
El Mundo (Madrid)
Recreación de un océano primitivo. | NASA
La ciencia continúa en su intento de dar respuesta a los misterios de los orígenes de la vida sobre la Tierra. Esta vez, un grupo de químicos cree haber dado con nuevas pistas sobre la aparición de las primeras moléculas como almacenes de información genética. Sus hallazgos aparecen publicados en la revista británica Nature.
En los mamíferos, los peces o las bacterias, la información genética se almacena en el ADN (acido desoxirribonucleico). Por su parte, el ARN (ácido ribonucleico) desempeña un papel activo para traducir esta información y permitir la síntesis de moléculas activas en el organismo.
Sin embargo, a veces la propia información genética se almacena en forma de ARN. Es el caso de los virus. Siendo el ARN más robusto que el ADN, los científicos han formulado la hipótesis según la cual "un mundo de ARN" precedió al actual, en el que el ADN domina las formas de vida. Como su primo el ADN, el ARN asocia tres tipos de moléculas: un azúcar, un grupo fosfato y una base que vehicula la información genética.
La idea más extendida entre la comunidad científica establece que estos tres tipos de moléculas debieron aparecer de forma separada en la Tierra promigenia. Pero lo que los químicos no han llegado a entender es cómo esas moléculas pudieron asociarse para constituir el ARN.
A través de trabajos de síntesis química en laboratorio, John Sutherland, de la Universidad de Manchester (Reino Unido), y colegas han descubierto una posible pista de cómo el ARN pudo aparecer sin la ayuda de enzimas, gracias a los rayos ultravioletas y al fosfato.
Los investigadores utilizaron moléculas presentes en la Tierra primitiva y provocaron reacciones químicas en modelos de ambientes geológicos como los que existieron en tiempos remotos.
En la misma revista, un segundo estudio recalca cómo el ARN, tradicional fuente de interés para explicar el origen de la vida, es buscado por los científicos en las profundidades oceánicas. El equipo de Edward DeLong, del MIT (EEUU), ha catalogado ya distintos y "pequeños" ARN directamente del plancton.
Recreación de un océano primitivo. | NASA
La ciencia continúa en su intento de dar respuesta a los misterios de los orígenes de la vida sobre la Tierra. Esta vez, un grupo de químicos cree haber dado con nuevas pistas sobre la aparición de las primeras moléculas como almacenes de información genética. Sus hallazgos aparecen publicados en la revista británica Nature.
En los mamíferos, los peces o las bacterias, la información genética se almacena en el ADN (acido desoxirribonucleico). Por su parte, el ARN (ácido ribonucleico) desempeña un papel activo para traducir esta información y permitir la síntesis de moléculas activas en el organismo.
Sin embargo, a veces la propia información genética se almacena en forma de ARN. Es el caso de los virus. Siendo el ARN más robusto que el ADN, los científicos han formulado la hipótesis según la cual "un mundo de ARN" precedió al actual, en el que el ADN domina las formas de vida. Como su primo el ADN, el ARN asocia tres tipos de moléculas: un azúcar, un grupo fosfato y una base que vehicula la información genética.
La idea más extendida entre la comunidad científica establece que estos tres tipos de moléculas debieron aparecer de forma separada en la Tierra promigenia. Pero lo que los químicos no han llegado a entender es cómo esas moléculas pudieron asociarse para constituir el ARN.
A través de trabajos de síntesis química en laboratorio, John Sutherland, de la Universidad de Manchester (Reino Unido), y colegas han descubierto una posible pista de cómo el ARN pudo aparecer sin la ayuda de enzimas, gracias a los rayos ultravioletas y al fosfato.
Los investigadores utilizaron moléculas presentes en la Tierra primitiva y provocaron reacciones químicas en modelos de ambientes geológicos como los que existieron en tiempos remotos.
En la misma revista, un segundo estudio recalca cómo el ARN, tradicional fuente de interés para explicar el origen de la vida, es buscado por los científicos en las profundidades oceánicas. El equipo de Edward DeLong, del MIT (EEUU), ha catalogado ya distintos y "pequeños" ARN directamente del plancton.
Herschel & Planck décollent de Kourou
Le Temps (Genève)
por Christian Du Brulle
Herschel (à gauche) et Planck. Deux satellites qui vont révolutionner l’étude du cosmos. dessins d’artistes
L’Agence spatiale européenne (ESA) aurait pu les appeler Dupont et Dupond, Thompson et Thomson ou encore Janssen et Janssens. Finalement, les spécialistes ont préféré baptiser leurs nouveaux télescopes spatiaux Herschel & Planck. S’ils vont bien voyager ensemble et étudier tous les deux d’une même orbite les premiers instants de l’Univers et la naissance des étoiles, il est vrai que physiquement ils ne se ressemblent guère.
Duo
Herschel, du nom du physicien britannique à l’origine de la découverte de l’infrarouge en 1800, est un colosse. Doté d’un miroir principal de 3,5 mètres de diamètre, il est le plus grand télescope spatial jamais envoyé en orbite. Même Hubble, avec son miroir principal de 2,4 m ne lui arrive pas à la cheville.
Planck de son côté (du nom du physicien allemand Max Planck) affiche des mensurations plus modestes, mais des ambitions tout aussi démesurées que son grand frère.
Le duo va avoir la délicate mission d’observer notre Univers dans sa plus tendre jeunesse et de lever un coin du voile sur la naissance des étoiles. Voilà pourquoi ces télescopes, qui doivent décoller ce jeudi de Kourou, en Guyane française, à bord d’une fusée Ariane 5, vont observer le ciel «froid». Notamment dans sa composante infrarouge.
Publicité
Cible de choix pour Planck: le rayonnement fossile, qui a jailli de l’Univers alors que celui-ci n’était âgé que de 380 000 ans (il a aujourd’hui 13,7 milliards d’années). A cette époque, la lumière a enfin pu se découpler de la matière. L’Univers s’est fait lumineux. Ce rayonnement de fond cosmologique qui baigne tout l’Univers s’observe aujourd’hui dans le domaine des ondes radio. Ce qui correspond à une température légèrement inférieure à –270ºC.
Du pain béni pour Planck, qui va en dresser des cartes d’une précision inégalée dans neuf longueurs d’onde distinctes, et ce avec une précision de l’ordre de quelques millionièmes de degré… De quoi permettre aux spécialistes de préciser l’âge de l’Univers, sa géométrie, sa composition ainsi que les premières structures qui y ont vu le jour.
Naissance des étoiles
Herschel pour sa part va observer ce que personne n’a encore pu voir jusqu’à présent: la naissance des étoiles. Celles-ci se forment par effondrement gravitationnel des nuages de gaz et de poussières. Ce sont des régions froides de l’Univers. Herschel a été conçu pour pouvoir capter le faible rayonnement de ces pouponnières stellaires compris entre des températures allant de –268 à –223°C. De quoi éclairer les chercheurs sur les raisons qui font que tous ces soleils en devenir n’ont ni la même taille, ni la même masse au moment de leur naissance.
En complément, Herschel va aussi étudier le développement de systèmes d’étoiles ainsi que l’évolution de l’Univers dans son ensemble.
Pour étudier ces diverses structures, les deux télescopes vont être placés en orbite loin de la Terre, au point de Lagrange. Il s’agit d’un endroit remarquable de l’orbite située à 1,5 million de kilomètres de notre planète, du côté opposé au Soleil. Un cocon de choix pour Herschel et Planck, dont le budget global avoisine les 2 milliards d’euros.
por Christian Du Brulle
Herschel (à gauche) et Planck. Deux satellites qui vont révolutionner l’étude du cosmos. dessins d’artistes
L’Agence spatiale européenne (ESA) aurait pu les appeler Dupont et Dupond, Thompson et Thomson ou encore Janssen et Janssens. Finalement, les spécialistes ont préféré baptiser leurs nouveaux télescopes spatiaux Herschel & Planck. S’ils vont bien voyager ensemble et étudier tous les deux d’une même orbite les premiers instants de l’Univers et la naissance des étoiles, il est vrai que physiquement ils ne se ressemblent guère.
Duo
Herschel, du nom du physicien britannique à l’origine de la découverte de l’infrarouge en 1800, est un colosse. Doté d’un miroir principal de 3,5 mètres de diamètre, il est le plus grand télescope spatial jamais envoyé en orbite. Même Hubble, avec son miroir principal de 2,4 m ne lui arrive pas à la cheville.
Planck de son côté (du nom du physicien allemand Max Planck) affiche des mensurations plus modestes, mais des ambitions tout aussi démesurées que son grand frère.
Le duo va avoir la délicate mission d’observer notre Univers dans sa plus tendre jeunesse et de lever un coin du voile sur la naissance des étoiles. Voilà pourquoi ces télescopes, qui doivent décoller ce jeudi de Kourou, en Guyane française, à bord d’une fusée Ariane 5, vont observer le ciel «froid». Notamment dans sa composante infrarouge.
Publicité
Cible de choix pour Planck: le rayonnement fossile, qui a jailli de l’Univers alors que celui-ci n’était âgé que de 380 000 ans (il a aujourd’hui 13,7 milliards d’années). A cette époque, la lumière a enfin pu se découpler de la matière. L’Univers s’est fait lumineux. Ce rayonnement de fond cosmologique qui baigne tout l’Univers s’observe aujourd’hui dans le domaine des ondes radio. Ce qui correspond à une température légèrement inférieure à –270ºC.
Du pain béni pour Planck, qui va en dresser des cartes d’une précision inégalée dans neuf longueurs d’onde distinctes, et ce avec une précision de l’ordre de quelques millionièmes de degré… De quoi permettre aux spécialistes de préciser l’âge de l’Univers, sa géométrie, sa composition ainsi que les premières structures qui y ont vu le jour.
Naissance des étoiles
Herschel pour sa part va observer ce que personne n’a encore pu voir jusqu’à présent: la naissance des étoiles. Celles-ci se forment par effondrement gravitationnel des nuages de gaz et de poussières. Ce sont des régions froides de l’Univers. Herschel a été conçu pour pouvoir capter le faible rayonnement de ces pouponnières stellaires compris entre des températures allant de –268 à –223°C. De quoi éclairer les chercheurs sur les raisons qui font que tous ces soleils en devenir n’ont ni la même taille, ni la même masse au moment de leur naissance.
En complément, Herschel va aussi étudier le développement de systèmes d’étoiles ainsi que l’évolution de l’Univers dans son ensemble.
Pour étudier ces diverses structures, les deux télescopes vont être placés en orbite loin de la Terre, au point de Lagrange. Il s’agit d’un endroit remarquable de l’orbite située à 1,5 million de kilomètres de notre planète, du côté opposé au Soleil. Un cocon de choix pour Herschel et Planck, dont le budget global avoisine les 2 milliards d’euros.
segunda-feira, maio 04, 2009
'Wolfram Alpha’: el nuevo buscador que revolucionará la Red
El Mundo (Madrid)
Ha sido bautizada como la nueva revolución en internet, y aseguran que transformará la búsqueda de información en la Red. El proyecto se llama Wolfram Alpha y se trata de un motor de búsqueda de conocimiento computacional capaz de responder directamente a las preguntas que hace el usuario, en vez de remitirnos a enlaces como hace Google. No porque disponga de un gran listado de respuestas, sino porque es capaz de calcularlas a partir de una serie de bases de datos y de algoritmos.
O sea, que le podremos formular preguntas como se las haríamos a un amigo y nos dará la respuesta exacta. Por ejemplo, si le preguntamos cuándo va a llover en París, qué tiempo hace en Madrid o el día que mataron a Kennedy, nos responderá de forma precisa. El buscador empezará a funcionar a finales de este mes y será accesible para todo el mundo, según afirma el padre de la criatura en su blog. Algunos expertos consideran que su impacto podría llegar a ser similar al que tuvo Google en su momento.
Un niño prodigio de la ciencia
El padre del invento es el matemático Stephen Wolfram, un prestigioso científico británico conocido por ser el autor del programa de cálculo 'Mathematica', una herramienta de referencia en el campo de la programación.
Nacido en Londres en 1959, Stephen Wolfram publicó su primer artículo científico, sobre física de partículas a los 16 años, entró en Oxford a los 17 y obtuvo su Doctorado en Física en el Instituto de Tecnología de California (Caltech) a los 20.
El actual proyecto del buscador ha sido desarrollado a través de Wolfram, su empresa de software.
"Nuestro objetivo es poner el conocimiento experto al alcance de todo el mundo, en cualquier lugar y en cualquier momento", explicó el profesor Wolfram en la presentación del buscador la semana pasada en la Universidad de Harvard.
Una vez formulada la pregunta, la herramienta calcula diferentes respuestas eligiendo de forma selectiva la información de la Red para acabar dando una respuesta precisa. La gran innovación de este programa, según Wolfram, es la capacidad de resolver preguntas concretas de inmediato. Así, puede calcular la altura exacta del Everest, o comparar la altura de esta cumbre con la extensión del puente del Golden Gate si así se lo pedimos, o calcular el PIB de cualquier país, además de resolver ecuaciones matemáticas complejas y resolver cuestiones científicas.
"Como si estuviéramos interactuando con un experto, el buscador puede entender de lo que estamos hablando, realizar el cálculo y dar la respuesta precisa", aseguró Wolfram. El creador del programa explicó que trillones de ficheros de datos fueron seleccionados por su equipo de expertos para asegurarse de que la información podría ser procesada por el sistema.
Nuevo revulsivo del ciberespacio
Nova Spivack, un prestigioso experto y el creador de la herramienta Twine de internet, cree que Alpha podría tener el mismo impacto que Google. "Wolfram Alpha es como enchufarnos a un gigantesco cerebro electrónico", asegura Spivack, "no sólo busca respuestas dentro de una gran base de datos [como Google], sino que calcula las respuestas".
Muchos expertos piensan como Spivack y consideran que Alpha superará a Google. El doctor Wolfram, en todo caso, no descarta colaborar con Google en el futuro o con Wikipedia. "Estamos buscando empresas con las que podernos asociar, que tengan sentido para nosotros y que sean complementarias con nuestro trabajo", reconoce el científico británico.
La comunicación de las personas con los ordenadores mediante un lenguaje natural, y la posibilidad de que un buscador sea capaz de responder a una pregunta del usuario como lo haría una persona, ha sido el Santo Grial de Internet durante los últimos años. Wolfram cree haber logrado este objetivo: "Pensábamos que se podría generar una gran ambigüedad en la búsqueda de términos, pero al final no ha sido así, el sistema lo ha resuelto", asegura. El programa incluso tiene la capacidad de interpretar las preguntas que se le hace, eliminando las palabras irrelevantes.
El profesor Wolfram, que lleva siete años trabajando en este proyecto, afirma que necesita al menos a 1.000 empleados para mantener las bases de datos y actualizarlas con los últimos hallazgos y la información más reciente. Y asegura que tan sólo nos encontramos en el principio del proyecto.
Ha sido bautizada como la nueva revolución en internet, y aseguran que transformará la búsqueda de información en la Red. El proyecto se llama Wolfram Alpha y se trata de un motor de búsqueda de conocimiento computacional capaz de responder directamente a las preguntas que hace el usuario, en vez de remitirnos a enlaces como hace Google. No porque disponga de un gran listado de respuestas, sino porque es capaz de calcularlas a partir de una serie de bases de datos y de algoritmos.
O sea, que le podremos formular preguntas como se las haríamos a un amigo y nos dará la respuesta exacta. Por ejemplo, si le preguntamos cuándo va a llover en París, qué tiempo hace en Madrid o el día que mataron a Kennedy, nos responderá de forma precisa. El buscador empezará a funcionar a finales de este mes y será accesible para todo el mundo, según afirma el padre de la criatura en su blog. Algunos expertos consideran que su impacto podría llegar a ser similar al que tuvo Google en su momento.
Un niño prodigio de la ciencia
El padre del invento es el matemático Stephen Wolfram, un prestigioso científico británico conocido por ser el autor del programa de cálculo 'Mathematica', una herramienta de referencia en el campo de la programación.
Nacido en Londres en 1959, Stephen Wolfram publicó su primer artículo científico, sobre física de partículas a los 16 años, entró en Oxford a los 17 y obtuvo su Doctorado en Física en el Instituto de Tecnología de California (Caltech) a los 20.
El actual proyecto del buscador ha sido desarrollado a través de Wolfram, su empresa de software.
"Nuestro objetivo es poner el conocimiento experto al alcance de todo el mundo, en cualquier lugar y en cualquier momento", explicó el profesor Wolfram en la presentación del buscador la semana pasada en la Universidad de Harvard.
Una vez formulada la pregunta, la herramienta calcula diferentes respuestas eligiendo de forma selectiva la información de la Red para acabar dando una respuesta precisa. La gran innovación de este programa, según Wolfram, es la capacidad de resolver preguntas concretas de inmediato. Así, puede calcular la altura exacta del Everest, o comparar la altura de esta cumbre con la extensión del puente del Golden Gate si así se lo pedimos, o calcular el PIB de cualquier país, además de resolver ecuaciones matemáticas complejas y resolver cuestiones científicas.
"Como si estuviéramos interactuando con un experto, el buscador puede entender de lo que estamos hablando, realizar el cálculo y dar la respuesta precisa", aseguró Wolfram. El creador del programa explicó que trillones de ficheros de datos fueron seleccionados por su equipo de expertos para asegurarse de que la información podría ser procesada por el sistema.
Nuevo revulsivo del ciberespacio
Nova Spivack, un prestigioso experto y el creador de la herramienta Twine de internet, cree que Alpha podría tener el mismo impacto que Google. "Wolfram Alpha es como enchufarnos a un gigantesco cerebro electrónico", asegura Spivack, "no sólo busca respuestas dentro de una gran base de datos [como Google], sino que calcula las respuestas".
Muchos expertos piensan como Spivack y consideran que Alpha superará a Google. El doctor Wolfram, en todo caso, no descarta colaborar con Google en el futuro o con Wikipedia. "Estamos buscando empresas con las que podernos asociar, que tengan sentido para nosotros y que sean complementarias con nuestro trabajo", reconoce el científico británico.
La comunicación de las personas con los ordenadores mediante un lenguaje natural, y la posibilidad de que un buscador sea capaz de responder a una pregunta del usuario como lo haría una persona, ha sido el Santo Grial de Internet durante los últimos años. Wolfram cree haber logrado este objetivo: "Pensábamos que se podría generar una gran ambigüedad en la búsqueda de términos, pero al final no ha sido así, el sistema lo ha resuelto", asegura. El programa incluso tiene la capacidad de interpretar las preguntas que se le hace, eliminando las palabras irrelevantes.
El profesor Wolfram, que lleva siete años trabajando en este proyecto, afirma que necesita al menos a 1.000 empleados para mantener las bases de datos y actualizarlas con los últimos hallazgos y la información más reciente. Y asegura que tan sólo nos encontramos en el principio del proyecto.
sábado, maio 02, 2009
Web: la gratuité en question
Le Temps (Genève)
por Luc Debraine
Payant ou pas payant? Nombre de sites, plates-formes ou réseaux sociaux remettent aujourd’hui en question la sacro-sainte gratuité d’accès, l’une des valeurs cardinales du Web depuis sa création. Sacrilège? Plutôt la recherche effrénée d’un modèle économique qui serait enfin viable, enfin durable. Pour les plus fragilisés par la récession globale, et les changements d’habitude suscités par les nouvelles technologies, cette quête est vitale. En particulier pour l’information en ligne, celle produite jour par jour, heure par heure par les titres de la presse traditionnelle.
Ces sites ne savent plus à quel saint se vouer. Ils ont été gratuits avant de demander de l’argent pour leurs contenus puis de repasser à un accès libre. Et voilà qu’ils songent de nouveau à monnayer leur travail, malgré les risques d’échec d’une telle volte-face.
C’est en tout cas la situation du premier site de presse en ligne au monde, celui du New York Times (20 millions de visiteurs uniques par mois). Jusqu’à l’été 2007, www.nytimes.com faisait payer l’accès à une partie de ses contenus. Ses responsables ont alors estimé que la publicité serait à même de couvrir le financement de l’information en ligne. Ils ont ouvert en grand les vannes du site. Or au même moment la pub migrait vers des agrégateurs de contenus comme Google, ces monstres habiles qui proposent aux annonceurs de cibler plus finement leur clientèle, tout en s’accaparant le contenu des autres («Google et consorts sont des ténias!», s’est récemment écrié l’éditeur du Wall Street Journal). La récession a encore raréfié cette publicité. Pour le NY Times et la plupart des autres sites d’information en ligne, le modèle économique tant espéré s’efface des disques durs.
Publicité
De passage la semaine dernière à Lausanne pour une réunion de Presse Suisse, le spécialiste français des médias Frédéric Filloux insistait sur ce phénomène de destruction de valeur. Désormais, un lecteur de presse en ligne rapporte 10 à 20 fois moins d’argent qu’un lecteur de presse sur papier, malgré toutes les difficultés de celle-ci.
Valeur… «La génération internet, qui est née avec cet outil, doit comprendre que ce qui a de la valeur a un prix», martelait l’autre jour dans Le Monde Didier Quillot, responsable de Lagardère Active, poids lourd de la presse et de l’audiovisuel en France. Oui, mais comment convaincre un lecteur d’information de payer ce contenu alors même qu’il lui était offert jusqu’ici? N’est-il pas trop tard pour inverser la vapeur? L’exemple du Wall Street Journal, dont le site compte 1,1 million de lecteurs payants, n’est-il pas l’exception qui confirme la règle?
Tout dépend la manière dont on s’y prend. Le micropaiement facilité (voir ci-dessous) pourrait être une solution. Si Apple ou Nokia arrivent à nous taxer quelques francs pour de la musique et des applications, pourquoi n’en serait-il pas de même pour une longue enquête, des chroniques, une édition du jour, et plus simplement un journal ou un magazine que l’on apprécie beaucoup à l’écran?
Contraindre les agrégateurs de contenus à payer des droits, comme pourrait bientôt l’exiger l’agence Associated Press, serait une autre possibilité. Après tout, les éditeurs de livres sont en passe de contraindre Goggle à leur verser des copyrights en échange de la numérisation de leurs ouvrages. Les fournisseurs d’accès à internet, qui eux aussi tirent parti des flots d’informations gratuites pour renforcer leur attractivité, tout en facturant leurs propres prestations, pourraient eux aussi mettre la main à la poche, non?
Publicité
Peut-être. Un observateur avisé comme Frédéric Filloux, qui conseille le groupe de presse norvégien Schibsted (à l’origine du journal gratuit 20 Minutes) estime que le gros de l’information en ligne restera désormais accessible gratuitement. «L’objectif réaliste est celui du 80/20. Environ 20% de ces informations pourraient s’avérer suffisamment intéressantes, spécifiques et attractives pour être monétisables. Tout dépend de la qualité du contenu, de sa valeur d’usage et du prix demandé. Celui-ci doit être le plus juste possible».
Frédéric Filloux a également espoir dans la tablette électronique connectée à un réseau sans fil. Maintes fois espérée, jusqu’ici décevante, celle-ci pourrait s’imposer d’ici une à deux «générations-produits». Or si le coût du livre électronique décroît, il pourrait devenir rentable de le proposer à bas prix à un lecteur de presse en échange d’un engagement sur deux ans, par exemple. Ce modèle a bien réussi aux opérateurs de téléphonie mobile, qui ont largement subventionné le prix de leurs appareils en échange d’un abonnement sur une longue période. Alors?
YouTube et Twitter songent à lancer des services payants
por Anouch Seydtaghia
Un tabou pourrait bientôt s’envoler au sein des réseaux sociaux. Au cœur de la Silicon Valley, le mot «premium» est désormais articulé sans gêne. Avec un but: faire payer pour des services à valeur ajoutée. Le mythe de la publicité capable de tout financer s’envole: en 2009 aux Etats-Unis, les dépenses en ligne croîtront de façon misérable ou chuteront de 5%, selon les prévisions.
kYouTube: bientôt
des vidéos payantes
YouTube demandera à ses utilisateurs de payer pour visionner certaines vidéos. «Notre première priorité est la publicité. Nous verrons ensuite apparaître des micropaiements et d’autres formes d’abonnement», déclarait mi-avril Eric Schmidt, directeur de Google. Le propriétaire de YouTube vient de signer avec Sony et onze créateurs de contenu pour diffuser leurs films, en plus de l’accord récent conclu avec Disney. Le pari de YouTube est de diffuser en haute qualité des longs métrages payants et des séries. Pour l’heure, seules des séries de troisième catégorie et des films anciens ont été cédés à YouTube.
Il y a urgence: les utilisateurs ont beau mettre en ligne chaque minute 15 nouvelles heures de vidéo, les annonceurs sont réticents à être présents à côté de vidéos amateurs. Selon Credit Suisse, le site perdra 470 millions de francs cette année, à cause des coûts astronomiques en bande passante et en stockage des données.
Publicité
kFacebook: rumeur et bluff
En 2009, Mark Zuckerberg, fondateur de Facebook, a promis de porter chaque jour une cravate au bureau. Cela ne sera pas suffisant pour amadouer des sociétés, là aussi réticentes à annoncer à côté de contenu créé par des ados. Les rumeurs voient Facebook introduire des services payants, telle une adresse web perso (telle facebook.com/michel). Il semble exclu de faire payer les utilisateurs de base. Malgré ses 200 millions d’inscrits, Facebook perd de l’argent.
kTwitter: services payants pour les sociétés
Avec plus de 6 millions d’utilisateurs, le service qui permet d’envoyer des messages de 140 caractères au maximum ne gagne pas encore un centime. «Nous pourrions avoir des idées comment Twitter pourrait avoir des revenus», glisse Eric Schmidt. Biz Stone, cofondateur de Twitter, a déjà la sienne: «De plus en plus de sociétés utilisent Twitter et celles-ci sont suivies par toujours plus de particuliers.» D’où l’idée de faire payer ces sociétés.
En 2008, Dell a par exemple vendu, via Twitter, pour 1 million de dollars de matériel.
kMusique: tendance inverse
Et si même la musique payante par morceau n’avait pas d’avenir? Vu la multiplication des services proposant des chansons en téléchargement illimité contre abonnement (tels Grooveshark ou même Sony Ericsson), la question est posée. D’autant plus que de nombreux internautes écoutent même gratuitement les chansons de leur choix (via LastFM. com par exemple). Certains oseront peut-être s’aventurer sur le terrain du téléchargement 100% gratuit, mais avec écoute de publicité, via We7.com.
kSites X: plus de services
à valeur ajoutée
Face à la prolifération des sites X gratuits qui se financent via la publicité, les sites des grands éditeurs tentent de s’en sortir via plusieurs stratégies: un abonnement mensuel donnant droit au visionnement illimité de contenu, des vidéos en haute qualité et des services additionnels tels que du «chat» érotique en direct.
Les micropaiements, future poule aux œufs d’or
por Anouch Seydtaghia
Neuf mois après le lancement de son magasin d’applications, Apple vient de franchir le seuil du milliardième téléchargement. Rapportés au nombre d’iPhone et d’iPods vendus, cela fait une moyenne de 27 applications par utilisateur. Une partie des logiciels téléchargés – parmi les 35 000 disponibles – sont payants, de 1,10 franc à plusieurs dizaines de francs l’unité. La grande force d’Apple, c’est de permettre à l’utilisateur d’enregistrer une seule fois les coordonnées de sa carte de crédit pour ensuite dépenser ses sous d’un simple clic. Dès cet été, avec la version 3 du logiciel pour iPhone, les créateurs d’applications pourront eux-mêmes demander aux utilisateurs des micropaiements – par exemple pour acheter des niveaux supplémentaires au sein d’un jeu.
Microsoft, RIM (Blackberry) ou Google lancent des magasins similaires dans l’espoir de répliquer ce succès sur les téléphones qui utilisent leurs propres systèmes d’exploitation. Le grand défi sera de créer un système de paiement aussi simple que celui d’Apple.
Ils ne sont pas les seuls. Aux Etats-Unis, de nombreuses start-up lancent des systèmes de micropaiements qu’ils veulent greffer sur les réseaux sociaux tel Facebook, notamment pour les jeux en ligne. Mais les sites web ont un désavantage majeur: les études montrent que les consommateurs dépensent nettement plus facilement quelques centimes sur un portable – notamment pour des questions de sécurité – que devant leur PC.
por Luc Debraine
Payant ou pas payant? Nombre de sites, plates-formes ou réseaux sociaux remettent aujourd’hui en question la sacro-sainte gratuité d’accès, l’une des valeurs cardinales du Web depuis sa création. Sacrilège? Plutôt la recherche effrénée d’un modèle économique qui serait enfin viable, enfin durable. Pour les plus fragilisés par la récession globale, et les changements d’habitude suscités par les nouvelles technologies, cette quête est vitale. En particulier pour l’information en ligne, celle produite jour par jour, heure par heure par les titres de la presse traditionnelle.
Ces sites ne savent plus à quel saint se vouer. Ils ont été gratuits avant de demander de l’argent pour leurs contenus puis de repasser à un accès libre. Et voilà qu’ils songent de nouveau à monnayer leur travail, malgré les risques d’échec d’une telle volte-face.
C’est en tout cas la situation du premier site de presse en ligne au monde, celui du New York Times (20 millions de visiteurs uniques par mois). Jusqu’à l’été 2007, www.nytimes.com faisait payer l’accès à une partie de ses contenus. Ses responsables ont alors estimé que la publicité serait à même de couvrir le financement de l’information en ligne. Ils ont ouvert en grand les vannes du site. Or au même moment la pub migrait vers des agrégateurs de contenus comme Google, ces monstres habiles qui proposent aux annonceurs de cibler plus finement leur clientèle, tout en s’accaparant le contenu des autres («Google et consorts sont des ténias!», s’est récemment écrié l’éditeur du Wall Street Journal). La récession a encore raréfié cette publicité. Pour le NY Times et la plupart des autres sites d’information en ligne, le modèle économique tant espéré s’efface des disques durs.
Publicité
De passage la semaine dernière à Lausanne pour une réunion de Presse Suisse, le spécialiste français des médias Frédéric Filloux insistait sur ce phénomène de destruction de valeur. Désormais, un lecteur de presse en ligne rapporte 10 à 20 fois moins d’argent qu’un lecteur de presse sur papier, malgré toutes les difficultés de celle-ci.
Valeur… «La génération internet, qui est née avec cet outil, doit comprendre que ce qui a de la valeur a un prix», martelait l’autre jour dans Le Monde Didier Quillot, responsable de Lagardère Active, poids lourd de la presse et de l’audiovisuel en France. Oui, mais comment convaincre un lecteur d’information de payer ce contenu alors même qu’il lui était offert jusqu’ici? N’est-il pas trop tard pour inverser la vapeur? L’exemple du Wall Street Journal, dont le site compte 1,1 million de lecteurs payants, n’est-il pas l’exception qui confirme la règle?
Tout dépend la manière dont on s’y prend. Le micropaiement facilité (voir ci-dessous) pourrait être une solution. Si Apple ou Nokia arrivent à nous taxer quelques francs pour de la musique et des applications, pourquoi n’en serait-il pas de même pour une longue enquête, des chroniques, une édition du jour, et plus simplement un journal ou un magazine que l’on apprécie beaucoup à l’écran?
Contraindre les agrégateurs de contenus à payer des droits, comme pourrait bientôt l’exiger l’agence Associated Press, serait une autre possibilité. Après tout, les éditeurs de livres sont en passe de contraindre Goggle à leur verser des copyrights en échange de la numérisation de leurs ouvrages. Les fournisseurs d’accès à internet, qui eux aussi tirent parti des flots d’informations gratuites pour renforcer leur attractivité, tout en facturant leurs propres prestations, pourraient eux aussi mettre la main à la poche, non?
Publicité
Peut-être. Un observateur avisé comme Frédéric Filloux, qui conseille le groupe de presse norvégien Schibsted (à l’origine du journal gratuit 20 Minutes) estime que le gros de l’information en ligne restera désormais accessible gratuitement. «L’objectif réaliste est celui du 80/20. Environ 20% de ces informations pourraient s’avérer suffisamment intéressantes, spécifiques et attractives pour être monétisables. Tout dépend de la qualité du contenu, de sa valeur d’usage et du prix demandé. Celui-ci doit être le plus juste possible».
Frédéric Filloux a également espoir dans la tablette électronique connectée à un réseau sans fil. Maintes fois espérée, jusqu’ici décevante, celle-ci pourrait s’imposer d’ici une à deux «générations-produits». Or si le coût du livre électronique décroît, il pourrait devenir rentable de le proposer à bas prix à un lecteur de presse en échange d’un engagement sur deux ans, par exemple. Ce modèle a bien réussi aux opérateurs de téléphonie mobile, qui ont largement subventionné le prix de leurs appareils en échange d’un abonnement sur une longue période. Alors?
YouTube et Twitter songent à lancer des services payants
por Anouch Seydtaghia
Un tabou pourrait bientôt s’envoler au sein des réseaux sociaux. Au cœur de la Silicon Valley, le mot «premium» est désormais articulé sans gêne. Avec un but: faire payer pour des services à valeur ajoutée. Le mythe de la publicité capable de tout financer s’envole: en 2009 aux Etats-Unis, les dépenses en ligne croîtront de façon misérable ou chuteront de 5%, selon les prévisions.
kYouTube: bientôt
des vidéos payantes
YouTube demandera à ses utilisateurs de payer pour visionner certaines vidéos. «Notre première priorité est la publicité. Nous verrons ensuite apparaître des micropaiements et d’autres formes d’abonnement», déclarait mi-avril Eric Schmidt, directeur de Google. Le propriétaire de YouTube vient de signer avec Sony et onze créateurs de contenu pour diffuser leurs films, en plus de l’accord récent conclu avec Disney. Le pari de YouTube est de diffuser en haute qualité des longs métrages payants et des séries. Pour l’heure, seules des séries de troisième catégorie et des films anciens ont été cédés à YouTube.
Il y a urgence: les utilisateurs ont beau mettre en ligne chaque minute 15 nouvelles heures de vidéo, les annonceurs sont réticents à être présents à côté de vidéos amateurs. Selon Credit Suisse, le site perdra 470 millions de francs cette année, à cause des coûts astronomiques en bande passante et en stockage des données.
Publicité
kFacebook: rumeur et bluff
En 2009, Mark Zuckerberg, fondateur de Facebook, a promis de porter chaque jour une cravate au bureau. Cela ne sera pas suffisant pour amadouer des sociétés, là aussi réticentes à annoncer à côté de contenu créé par des ados. Les rumeurs voient Facebook introduire des services payants, telle une adresse web perso (telle facebook.com/michel). Il semble exclu de faire payer les utilisateurs de base. Malgré ses 200 millions d’inscrits, Facebook perd de l’argent.
kTwitter: services payants pour les sociétés
Avec plus de 6 millions d’utilisateurs, le service qui permet d’envoyer des messages de 140 caractères au maximum ne gagne pas encore un centime. «Nous pourrions avoir des idées comment Twitter pourrait avoir des revenus», glisse Eric Schmidt. Biz Stone, cofondateur de Twitter, a déjà la sienne: «De plus en plus de sociétés utilisent Twitter et celles-ci sont suivies par toujours plus de particuliers.» D’où l’idée de faire payer ces sociétés.
En 2008, Dell a par exemple vendu, via Twitter, pour 1 million de dollars de matériel.
kMusique: tendance inverse
Et si même la musique payante par morceau n’avait pas d’avenir? Vu la multiplication des services proposant des chansons en téléchargement illimité contre abonnement (tels Grooveshark ou même Sony Ericsson), la question est posée. D’autant plus que de nombreux internautes écoutent même gratuitement les chansons de leur choix (via LastFM. com par exemple). Certains oseront peut-être s’aventurer sur le terrain du téléchargement 100% gratuit, mais avec écoute de publicité, via We7.com.
kSites X: plus de services
à valeur ajoutée
Face à la prolifération des sites X gratuits qui se financent via la publicité, les sites des grands éditeurs tentent de s’en sortir via plusieurs stratégies: un abonnement mensuel donnant droit au visionnement illimité de contenu, des vidéos en haute qualité et des services additionnels tels que du «chat» érotique en direct.
Les micropaiements, future poule aux œufs d’or
por Anouch Seydtaghia
Neuf mois après le lancement de son magasin d’applications, Apple vient de franchir le seuil du milliardième téléchargement. Rapportés au nombre d’iPhone et d’iPods vendus, cela fait une moyenne de 27 applications par utilisateur. Une partie des logiciels téléchargés – parmi les 35 000 disponibles – sont payants, de 1,10 franc à plusieurs dizaines de francs l’unité. La grande force d’Apple, c’est de permettre à l’utilisateur d’enregistrer une seule fois les coordonnées de sa carte de crédit pour ensuite dépenser ses sous d’un simple clic. Dès cet été, avec la version 3 du logiciel pour iPhone, les créateurs d’applications pourront eux-mêmes demander aux utilisateurs des micropaiements – par exemple pour acheter des niveaux supplémentaires au sein d’un jeu.
Microsoft, RIM (Blackberry) ou Google lancent des magasins similaires dans l’espoir de répliquer ce succès sur les téléphones qui utilisent leurs propres systèmes d’exploitation. Le grand défi sera de créer un système de paiement aussi simple que celui d’Apple.
Ils ne sont pas les seuls. Aux Etats-Unis, de nombreuses start-up lancent des systèmes de micropaiements qu’ils veulent greffer sur les réseaux sociaux tel Facebook, notamment pour les jeux en ligne. Mais les sites web ont un désavantage majeur: les études montrent que les consommateurs dépensent nettement plus facilement quelques centimes sur un portable – notamment pour des questions de sécurité – que devant leur PC.