LAS RELACIONES SEXUALES ENTRE FAMILIARES PROPICIARON LA EXTINCIÓN DE LOS NEANDERTALES


El estudio de los 13 neandertales de la misma familia revela que la endogamia fue decisiva en su desaparición

Detectaron 17 anomalías congénitas en su esqueleto, todas compartidas por varios miembros

La cueva asturiana de El Sidrón fue hace 49.000 años el hogar de una familia de neandertales. Estaba formada por al menos 13 personas -siete adultos, tres adolescentes y tres niños- de las que se han encontrado 2.500 partes de sus esqueletos fosilizados.

Un puzle de huesos cuyo análisis está permitiendo esclarecer uno de los misterios de la paleontología: por qué esta especie se extinguió hace unos 40.000 años, coincidiendo con la llegada del hombre de Cromañón.

Tras estudiar 1.674 de esos 2.500 huesos hallados en la cueva del municipio de Piloña, un equipo de científicos españoles apunta a la endogamia como factor decisivo en la desaparición de los neandertales. Lo saben gracias a las anomalías que han encontrado en esos fósiles, que muestran que las relaciones entre miembros de la misma familia debían ser frecuentes.

"Hemos identificado un porcentaje relativamente alto de anomalías congénitas, es decir, pequeñas variantes morfológicas que vienen determinadas genéticamente", explica a este diario Antonio Rosas, el investigador del Museo Nacional de Ciencias Naturales (CSIC) que ha dirigido el estudio, publicado este viernes en la revista Scientific Reports.

"En las poblaciones humanas o de otros animales que están en peligro de extinción, estas anomalías congénitas suelen ser mucho más frecuentes que en las poblaciones normales, y esto ocurre porque se acumulan. Debido a la reproducción entre individuos del mismo grupo y la reiteración de personas genéticamente cercanas, esas anomalías terminan apareciendo en la población y son un indicador de la endogamia", señala Rosas.

En total, han detectado 17 anomalías congénitas distribuidas por todo el esqueleto y todas ellas son compartidas por varios miembros de la familia.

Por ejemplo, cuatro de los 13 individuos presentaban una anomalía en el cierre del arco anterior o posterior de las vértebras cervicales, según explica Luis Ríos, primer autor del estudio. Los huesos de la muñeca, el pie, la nariz y la mandíbula son otras de las partes del cuerpo en las que han visto anomalías.

Sus resultados no han sido una sorpresa pues, como recuerda Rosas, además de los indicios genéticos se sabía que, por lo general, los grupos neandertales solían estar formados por pocos individuos y estaban muy dispersos: "Desde el punto de vista demográfico o poblacional, parece que las estructuras de grupos pequeños y aislados, y con reproducción endogámica, pudieron ser determinantes para su extinción".

La razón es que, desde el punto de vista biológico, supone un factor de pérdida de variabilidad genética, "y esa pérdida a largo plazo determina menos capacidad de respuesta ante los cambios ambientales, lo que termina con la desaparición de los grupos".

Además, las huellas genéticas han revelado que esos comportamientos se extendieron en el tiempo y se producían ya hace unos 200.000 años. "Lo que estamos viendo es que el proceso de pérdida de variabilidad y de endogamia viene de muy atrás. Podemos afirmar que la extinción de los neandertales no se debió exclusivamente a la presencia de los cromañones, sino que se trata de un proceso evolutivo que viene de muy atrás".

Sus resultados concuerdan con lo que se ha visto en otros lugares europeos habitados por neandertales, como la cueva de Vindija, en Croacia, o en Altai (Siberia), donde además han podido constatar en un individuo que hubo descendencia entre hermanastros. En la familia de El Sidrón, dice Rosas, no han estudiado si hubo consanguinidad.

No obstante, no se puede echar toda la culpa a la endogamia: "Fue un factor muy determinante pero no el único. Posiblemente actuó en conjunción con otros factores de tipo ecológico, como la degradación del medio ambiente en el que vivían, y al final de su existencia, por la competición ecológica con los cromañones".

En lo que respecta a la influencia del medio ambiente, Rosas menciona cómo la extinción de los neandertales coincidió con el avance de la última glaciación, que supuso una modificación de los ecosistemas. El clima del planeta, especialmente en el territorio que hoy es Europa, fue bastante frío: "Se perdieron los bosques templados y con ello el medio natural de los neandertales. Esa fragmentación de los bosques contribuyó a la propia fragmentación de las poblaciones neandertales".

La de El Sidrón es la colección más importante de restos neandertales de la Península Ibérica aunque esta especie estaba bastante extendida por nuestra geografía. Aproximadamente en la misma época en la que vivía la familia de la cueva asturiana, otros grupos neandertales seguramente vivían en Gibraltar, en la cueva granadina de Zafarraya y en el litoral cantábrico.

LAS RESERVAS DE ECOPETROL SE CALCULAN EN 1.700 MILLONES DE BARRILES


Ecopetrol le apuesta a continuar reemplazando el 100% de sus reservas cada año.

Los analistas hacen los pronósticos y apuestas sobre a cuánto llegará el volumen de los remanentes.

Son cautos en sus predicciones, y hasta el momento, lo único claro que tienen los expertos es que las reservas probadas superarían los 1.659 millones de barriles equivalentes que se reportaron al cierre de la operación en el 2017, pero que el índice de reemplazo no iría más allá del 120%.

Cabe anotar que la petrolera colombiana logró subirlas en este año, con un índice de reemplazo de 126%. Eso significó que por cada barril que produjo, la empresa incorporó 1,26 barriles a sus remanentes.

Además, consideran que el panorama para lograr un incremento significativo está prácticamente despejado, si se tiene en las cuentas que para septiembre la compañía registró una caja de $18,1 billones. Es decir, falta establecer los resultados financieros globales por la operación en el 2018.

“Para los analistas e inversionistas, tanto nacionales como internacionales, el índice de reemplazo de reservas es uno de los indicadores más importantes para valorar a las empresas petroleras. Y consideran que la meta es lograr un 100%, es decir, ser capaz de reemplazar toda la producción. Por esta razón Ecopetrol se puso como meta lograr dicho reemplazo del 100%”, señaló uno de los expertos consultados.

UN GRAN OPTIMISMO
En el país, los analistas han hecho previsiones que van desde el 90% hasta más del 120%.
Entre los más optimistas está Corredores Davivienda, que prevé que las reservas de Ecopetrol subirán a más de 1.700 millones de barriles.

“Al igual que el año anterior, la revisión de reservas tendría un impacto positivo por factor precio, el cual estimamos podría agregar en el neto de revisiones de 222 millones barriles equivalentes”, señaló Ricardo Sandoval, analista Petróleo en un informe de Corredores Davivienda.

El analista agregó en el citado informe que “consecuentemente, nuestras estimaciones concluyen que Ecopetrol cerrará 2018 con unas reservas probadas de 1.757 millones de barriles equivalentes en reservas, es decir 6% más que las reservas del 2017 y 10% más que las del 2016”.

Subrayó además que el índice de reposición de reservas (IRR) sería de 141%, en línea con el promedio de reposición de los años pre-crisis petrolera 2011 – 2014, y que la vida de las reservas alcanzaría los 6,7 años.

“A pesar de cerrar el 2018 con un precio Brent de US$53,80, el precio por metodología SEC para la evaluación de reservas es de US$72”, explicó Sandoval en el citado informe de Corredores Davivienda.

UNA CAUTA PROYECCIÓN
Otros analistas son más cautos y aseguran que el reemplazo estarían cerca del 100%, con lo que la compañía se mantendría por debajo de los 1.700 millones de barriles en sus reservas probadas.

“Si Ecopetrol logra el reemplazo de reservas por encima del 100% de reposición, significa que está consumiendo reservas, pero al mismo tiempo adicionando reservas”, explicó Camilo Silva, gerente de la firma Valora Analitik, al precisar que el incremento es moderado si se tiene en cuenta que la operación venía de tres años de decrecimento en el aumento de las reservas.

Precisó que si en el 2017 se logró un incremento en las reservas del 126%, el valor significativo a tomar en cuenta es ese 26% que se obtuvo después del 100%. “Ecopetrol ya logró la estabilización, ahora lo que debe venir es mayor producción”, indicó.

Silva agregó que el mercado esta pendiente a cuánto fue lo que logro la petrolera colombiana en esa reposición, índice que se debe tomar más en cuenta por el uso que se le ha dado a los campos que al mismo precio internacional del crudo.

El analista dejó en claro, que si Ecopetrol logra un nivel de reposición superior al 100%, el balance es favorable.

Aunque Ecopetrol revelará su balance oficial de reservas a finales de febrero, en este momento se encuentran en el proceso de certificación con compañías especializadas. Y la empresa no se pronunciará hasta que concluya este proceso y el balance del año sea revelado oficialmente al mercado.

Uno de los focos de la estrategia de Ecopetrol es aumentar las reservas, para lo que tiene cuatro líneas estratégicas, entre las que se destacan los proyectos exploratorios en Colombia y otros países del continente americano, los proyectos de recobro (como en los campos Castilla Chichimene), el desarrollo de los no covencionales y la opción de realizar adquisiciones gracias a la fuerte posición de caja.

En materia de exploración, Ecopetrol tiene hoy proyectos en la mayoría de cuencas en Colombia, así como en el Pre-Sal de Brasil y en el Golfo de México.

En producción, la empresa le apunta a continuar subiendo el factor de recobro, como ya lo ha venido haciendo en campos estratégicos como Castilla y Chichimene.

Las labores de exploración y producción son la mayor partida del plan de inversiones de Ecopetrol para 2019, que será de entre US$4.000 millones y US$4.500 millones.

Ecopetrol decidió enfocar sus esfuerzos en continuar reemplazando el 100% de sus reservas cada año.

El 95% de las reservas probadas son propiedad de Ecopetrol S.A., mientras que Hocol, Ecopetrol América y las participaciones en Equión y Savia Perú contribuyen con el 5%. Se destaca que Ecopetrol S.A tiene una vida media de reservas de 7,4 años. Por cada barril producido, la Empresa incorporó 1,26 barriles en reservas.

EL REGRESO DEL SARAMPIÓN EN ESTADOS UNIDOS

Seis focos de sarampión se declararon desde el 1 de enero en los estados de Washington, Colorado y Nueva York, dejando 159 afectados por la enfermedad.

Expertos sanitarios de Estados Unidos alertaron este miércoles sobre el regreso del sarampión en los últimos años en el país, especialmente en comunidades que rechazan la vacunación y logran exenciones por motivos religiosos o personales. 

Desde el 2000, cada año se han registrado entre unos 50 y varios centenares de casos, a pesar de que esa enfermedad muy contagiosa se había declarado erradicada a comienzos del siglo en Estados Unidos. 

Ese regreso es "inaceptable", declaró este miércoles Anthony Faucy, director del Instituto Nacional de Enfermedades Infecciosas, durante una intervención ante el Congreso estadounidense. "Debemos volver a cero", dijo. 

El virus del sarampión es uno de los más contagiosos. Puede permanecer en un lugar hasta dos horas después de la marcha de la persona infectada

La mayoría de las epidemias estadounidenses de sarampión empiezan cuando el virus llega en el cuerpo de una persona que regresa de un viaje al extranjero, ya que esa enfermedad sigue muy activa en numerosos países. 

Luego se propaga entre las personas que no recibieron vacuna, que tienden a vivir cerca las unas de las otras. 

"Hay grupos de gente que tiene dudas respecto a las vacunas", explicó Nancy Messonnier, directora del Centro Nacional Para la Vacunación y las Enfermedades Respiratorias. 

En los últimos cinco años, 12 de las 26 epidemias (más de cinco enfermos) se declararon en grupos "con vínculos muy estrechos", como la comunidad somalí de Minnesota en 2017 o la comunidad judía ortodoxa del barrio de Brooklyn, en Nueva York, el año pasado. (27-02-2019) 

UNA NUEVA TECNOLOGÍA PERMITE CONVERTIR EL CO2 EN CARBÓN Y AYUDAR A COMBATIR EL CAMBIO CLIMÁTICO


Los tres últimos años han sido los más calurosos

Limitar el aumento de temperatura a 1,5ºC requiere "cambios sin precedentes"

Un grupo de investigadores en Australia ha desarrollado un método para transformar el dióxido de carbono (CO2) en un material sólido, similar al carbón, un avance que podría revolucionar el enfoque mundial sobre captura y almacenamiento de este gas de efecto invernadero.

La viabilidad de retirar y transformar el CO2 presente en la atmósfera se ha venido debatiendo durante más de una década en las reuniones internacionales sobre cambio climático y en los círculos académicos, pero no ha sido hasta estos últimos años cuando los primeros ensayos serios están comenzando a materializarse.
"Anteriormente el CO2 sólo se había conseguido convertir a estado sólido a temperaturas extremadamente altas, lo que lo hacía inviable a escala industrial", señala el investigador de la Universidad RMIT de Melbourne Torben Daeneke, coautor del hallazgo cuyos detalles aparecen este martes en Nature Communications.

"Pero gracias a los metales líquidos que hemos utilizado como catalizadores, demostramos que también es posible lograrlo a temperatura ambiente, en un proceso que es a la vez eficiente y escalable".

Hasta ahora la investigación sobre técnicas de captura y almacenamiento de carbono se había centrado en la condensación de CO2 hacia una forma líquida, para después transportarlo e inyectarlo bajo tierra, o utilizarlo para producir combustibles.

"En este tipo de proyectos, el líquido normalmente se entierra a un kilómetro de profundidad, en sitios similares a los que se encontraría petróleo o carbón en estado natural", explica el profesor Juan Carlos Abanades, responsable del Grupo de Captura de CO2 del Instituto Nacional del Carbón (INCAR-CSIC). Pero los ensayos con este método suelen venir acompañado de una serie de dificultades técnicas, económicas y de seguridad medioambiental (por el riesgo de fugas).

Para conseguir esta reconversión del CO2 los investigadores australianos han diseñado un catalizador a partir de una aleación de galio no tóxico, con unas propiedades específicas, que activan el proceso y lo hacen extremadamente eficiente como conductor de señales eléctricas. El dióxido de carbono se disuelve en un recipiente que contiene una mezcla entre un líquido electrolítico y una pequeña cantidad de metal, que luego se carga con una corriente eléctrica. Así el CO2 se va deponiendo lentamente en escamas sólidas de carbono, que se desprenden de manera autónoma de la superficie del metal líquido, lo que permite una producción continua. "Aunque no podamos ir hacia atrás en el tiempo, hacer que el dióxido de carbono vuelva a ser carbono y poder enterrarlo después, es como retrasar el reloj de las emisiones", afirma Daeneke.

El método tiene, además, otras ventajas adicionales. "El material resultante retiene la carga eléctrica, que lo convierte en un supercondensador, por lo que podría ser utilizado posteriormente como un componente para futuros vehículos", afirma Dorna Esrafilzadeh, investigadora de la Universidad de Nueva Gales del Sur. "El proceso también produce un combustible sintético como subproducto, que podría tener otras aplicaciones industriales".

Pese al potencial del hallazgo, los autores son los primeros en señalar que esta técnica no es una panacea contra el cambio climático ni una licencia para seguir contaminando. La raíz del calentamiento global se encuentra en la liberación a la biosfera de grandes cantidades de carbono procedentes del interior del planeta, lo que resulta en el aumento de las temperaturas de la superficie. Así que para atajar el problema se abren dos vías, diferentes aunque complementarias.

La primera -y más directa- es acabar con las emisiones, reduciendo el consumo y la producción industrial y utilizando energías alternativas. La segunda, consiste en eliminar el CO2 una vez liberado en la atmósfera y volver a ponerlo bajo la corteza. "Para hacer frente a los desafíos del cambio climático, necesitamos un enfoque múltiple", dice Daeneke, "nuestra técnica ofrece una vía alternativa para eliminar de forma segura y permanente el CO2 de nuestra atmósfera, pero minimizar las emisiones de CO2 debe ser siempre la prioridad, ya que evitar esas emisiones va a ser siempre más fácil que mitigarlas después".

Carrera contra el tiempo Los investigadores señalan también que la técnica aún tardará algún tiempo en poder funcionar a gran escala. "De momento la tecnología que hemos desarrollado puede convertir el CO2 a nivel de laboratorio", explica Daeneke. "Aunque el proceso es eficiente desde el punto de vista energético y esperamos que sea viable, nos va a llevar algunos años superar los desafíos de ingeniería que implica su aplicación a gran escala". A finales del año pasado el panel de expertos de Naciones Unidas para el cambio climático (IPCC) advirtió que sólo quedan doce años para que evitar que el calentamiento global supere el umbral de 1,5 Cº. Una vez rebasada esta marca, los riesgos asociados a sequías, inundaciones, olas de calor extremas y otras consecuencias directas e indirectas del cambio climático serán más severos.

Pero además del factor tiempo, los métodos de captura, almacenamiento y transformación de CO2 como el que se describe en Nature Communications se enfrentan a otra importante dificultad. "Personalmente soy un poco escéptico ante este tipo de técnicas por la cantidad de energía que se necesita", reconoce Juan Carlos Abanades. "Para que estos esfuerzos sean relevantes contra el cambio climático se necesitarían flujos enormes de energías renovables, que no podrían ser de ser utilizados para otras cosas", señala.

GÉRMENES QUE CURAN Y QUE SON UNA ALTERNATIVA A LOS ANTIBIÓTICOS


 Los doctores Jon Koff 8izq) y Benjamin Chang observan a la paciente Ella Balasa inhalar un bacteriófago producido por Chang como parte de un tratamiento experimental para combatir infecciones resistentes a los antibióticos en New Haven, Connecticut, el 17 de enero del 2019.

Las bacterias de sus pulmones resistían la mayoría de los antibióticos. Ella Balasa, de 26 años, decidió entonces probar un arriesgado experimento: inhalar
un virus procedente de aguas residuales para combatir la bacteria.

“No tengo muchas alternativas”, explicó Balasa, quien viajó de Richmond, Virginia, a la Universidad de Yale para ensayar lo que asomaba como un último recurso. “Sé que tal vez no sirva de nada. Pero tengo muchas esperanzas”.

El uso de un germen para combatir otro puede parecer algo radical, pero refleja una crisis en el campo de la salud: Cada vez muere más gente por infecciones que eran fácilmente tratables debido a que las bacterias ahora resisten los antibióticos.

Algunas son directamente intratables y los científicos se afanan por encontrar alternativas a los antibióticos, explorando, a veces, sitios impensados.

Un posible tratamiento engaña a la bacteria y la priva de los nutrientes que necesita para sobrevivir. Otro recompone al sistema inmunológico para que pueda combatir mejor los gérmenes.

Y se están ensayando los virus llamados bacteriófagos --o fagos, descubiertos hace un siglo pero que habían sido olvidados por Occidente ante la eficacia de los antibióticos-- en un puñado de casos de emergencia.

“La frustración de la gente por la resistencia a los antibióticos va en aumento”, dijo el biólogo de Yale Benjamin Chan, quien recorre el mundo en busca de fagos y recibe llamadas de pacientes desesperados dispuestos a ensayarlos. “Estamos conscientes de que necesitamos alternativas”.

Enemigo natural de las bacterias, cada variedad de fago combate una cepa distinta de bacteria. Originalmente se lo empleó para tratar la diarrea, a principios del siglo 20. Chan busca en zanjas, estanques y en plantas de tratamiento de aguas residuales las cepas que combaten una cantidad de infecciones humanas.

“Los mejores lugares son generalmente sitios sucios, porque somos animales sucios”, explicó.

Chan consideró que una viscosidad marrón posada sobre una placa de Petri daba esperanzas a Balasa.

La mujer tiene una enfermedad genética llamada fibrosis quística que lastima sus pulmones y atrapa bacterias en su interior, incluidas una llamada pseudomona aeruginosa. Una dosis diaria de antibióticos inhalados controló la infección hasta el año pasado, en que las medicinas dejaron de funcionar.

Chan cultivó una muestra de la bacteria de Balasa tomada de su flema. Luego vino el momento clave: Dejó caer varias gotas de fagos que atacan esas bacterias en un plato mugriento y empezaron a surgir círculos a medida que los virus consumían las bacterias.

Pero, ¿lo que funcionó en un laboratorio funcionaría en los pulmones de Balasa?

BACTERIAS RESISTENTES A LAS MEDICINAS
A esta altura no hay dudas de que mucha gente muere porque los antibióticos ya no controlan sus infecciones. Si bien no hay estadísticas, un informe británico muy citado dice que, a menos que se encuentren otras soluciones, para el 2050 podrían morir hasta 10 millones de personas por infecciones que resisten los antibióticos. Más muertes que las que causa hoy el cáncer.

Muchas empresas farmacéuticas ya no producen nuevos antibióticos ante los pocos resultados que dan.

BUSCANDO EL FLANCO DÉBIL DE LAS BACTERIAS
Para encontrar alternativas, es imperioso “detectar cuales son los puntos vulnerables de las bacterias”, expresó el doctor Pradeep Singh, de la Universidad de Washington.

Singh y su colega de la UW Christopher Goss se enfocan en el hierro, elemento vital para el crecimiento de la bacteria. Resulta que las bacterias no siempre pueden distinguir entre hierro y un metal parecido de origen químico llamado galio. El galio no nutre la bacteria y, por el contrario, la debilita, según Goss.

Dos estudios pequeños se enfocaron en pacientes con fibrosis quística con pseudomonas resistentes a los antibióticos pero que todavía no estaban muy enfermos. Los pacientes recibieron durante cinco días una infusión a base de galio. En las semanas siguientes, sus infecciones pulmonares mejoraron.

“Parece una buena forma de destruir bacterias”, dijo un participante en el estudio, Tre LaRosa, de 24 años, de Cincinnati. Su hermana falleció por una fibrosis quística. Si bien la suya está actualmente bajo control, teme que algún día se presente una infección resistente a los antibióticos. “No puedo hacer nada para impedirlo”.

REFORZANDO EL SISTEMA INMUNOLÓGICO
Anthony Fauci, director de la sección de enfermedades infecciosas del Instituto Nacional de la Salud de Estados Unidos, pronostica que en el futuro los médicos vacunarán a la gente pocas semanas antes de, digamos, una operación de reemplazo de rodilla para evitar infecciones de estafilococos en el hospital.

Se están ensayando numerosas vacunas y algo particularmente prometedor, según Fauci, son unos “anticuerpos monoclonales” de laboratorio que atacan bacterias específicas.

PREPARANDO EL VIRUS PARA UN ATAQUE FRONTAL
En Virginia, Balasa se enteró de otra paciente de fibrosis quística que consiguió buenos resultados con los experimentos de fago en Yale y pidió participar en esos estudios como alternativa a lo único que quedaba, un trasplante de pulmón.

Los fagos son distintos a los antibióticos. Igual que los parásitos, el virus se infiltra en las células bacteriales y las usa para reproducirse, matando la bacteria. Cuando la bacteria desaparece, el virus muere también. Dado que los fagos reconocen solo determinadas bacterias, no afectarán las “bacterias buenas” del aparato digestivo, como sí hacen los antibióticos.

El primer experimento de Yale fue con un individuo de 82 años, al borde de la muerte tras un implante cardíaco. El hombre tenía pseudomonas intratables. Chan purificó un fago de un lago de Connecticut que encajaba con los gérmenes del anciano y consiguió un permiso especial para inyectarlo en la herida. La infección desapareció.

Mientras tanto, en la Universidad de California de San Diego, los médicos salvaron a un colega que estaba en coma desde hacía meses usando una mezcla de varios fagos que atacan una superbacteria llamada asinetobacter baumannii.

“Se nos presenta una oportunidad increíble aquí”, expresó el neumólogo de Yale Jon Koff. “Pero hay que conservar una dosis apropiada de escepticismo”.

El mes pasado, Balasa pasó a ser la octava paciente de Yale e inhaló miles de millones de fagos a lo largo de siete días.

Casi de inmediato, empezó a toser con menos bacteria. Unas pocas semanas después se sintió mejor. Durante ese período ingirió brevemente algunos antibióticos que había dejado de usar. Si bien hacen falta más estudios, Chen cree que los fagos mataron buena parte de la cepa predominante de pseudomonas e hizo que las que sobrevivieron sean nuevamente vulnerables a los antibióticos.

Balasa cree que el tratamiento “fue un gran éxito”, que le permitió dejar los antibióticos.

“Ahora habrá que ver cuánto tiempo puedo estar sin antibióticos”, comentó.

RUSIA YA TIENE SU PROPIO PROCESADOR


Rusia ha terminado con éxito el proceso de cinco años para crear su propio microprocesador universal. El Elbrús-8SV ha sido aprobado por el Ministerio de Industria y Comercio.

"El proyecto 'Procesador 9' con la arquitectura de Elbrús se completó en 2018. El procesador fue desarrollado en su totalidad, y fue probado y adoptado por la comisión del Ministerio. No se han registrado objeciones sobre los resultados del trabajo y todo está listo para la producción en masa. El plazo de fabricación de microprocesadores desde el momento del pago es de cuatro a cinco meses", informa el comunicado del Ministerio, citado por el medio ruso CNews.

La fabricación del Elbrús-8SV le costó a Moscú 621 millones de rublos (9,4 millones de dólares). El proyecto fue realizado por la empresa rusa de microelectrónica MCST bajo encargo del Gobierno de Rusia para el Ministerio de Defensa que será el principal cliente.

​El Elbrús-8SV de ocho núcleos está basado en una tecnología de 28 nanómetros, tiene un rendimiento máximo de 576 gigaflops de precisión simple y 288 gigaflops de doble precisión.

"Es comparable en rendimiento con los extranjeros Intel Itanium 9760, Intel Xeon E5-2609 v3 e Intel Xeon E7-4850 v4, fabricados con tecnologías más avanzadas", subrayan desde el Ministerio de Industria y Comercio.

Con el Elbrús-8SV sería posible crear computadoras personales, estaciones de trabajo de alto rendimiento y servidores de diversos propósitos con una capacidad de hasta dos teraflops, afirman desde el Ministerio.

LAS TENDENCIAS MAS IMPORTANTES DE ESTE AÑO EN COLOMBIA


Este año habrá una evolución de las actitudes hacia lo digital y su aporte. Ahora las marcas conducirán la nueva revolución creativa.

De acuerdo con el reporte de Accenture, Interactive Fjord Trends 2019, son siete las ideas que formarán la experiencia de la nueva generación, que se enfrenta a obtener resultados tras dos décadas de rápido crecimiento tecnológico y de la innovación.

Son ahora las personas y organizaciones las que están repensando lo que realmente quieren, necesitan y usan. Así, el diseño vuelve a situarse en el centro de la innovación.

De igual forma, las compañías que lograrán mantenerse competitivas en la era digital serán aquellas que transformen sus modelos de negocio a través de las nuevas tecnologías, con el fin de generar experiencias únicas para sus consumidores. Y las mejores experiencias serán aquellas que mejoren la calidad de vida de las personas.

Luis Eduardo López, director ejecutivo de Accenture Interactive en Colombia, explicó cómo ve el cambio y hacia donde van las tendencias en el país.

“El estudio lo hicimos sobre lo que podemos esperar y eso está del lado de la gestión y de las experiencias. Vemos que los recursos escasos que antes eran los naturales, ahora son el tiempo de las personas y su atención. Al mirar ese contexto, lo que ocurre es que vemos que los usuarios deciden las interacciones o qué tipo de empresas tienen relevancia en su vida, esa es una decisión activa, de qué tener y que no, y de esa manera vemos siete principales tendencias”, explicó López.

La primer directriz es que el silencio es oro, pues de acuerdo al análisis, las empresas cuidan sus comunicaciones, ahora se enfocan en el valor que tienen los mensajes y lo hacen de una manera menos invasiva a los consumidores.
 “Antes se hacía más ruido y se buscaba posicionarse en el imaginario. Ahora la idea es que las compañías se enfoquen en la experiencia del servicio, teniendo en cuenta la atención que cada persona le coloca a cada paso y haciendo que para el consumidor sea lo más sencillo posible” dijo el directivo.

La segunda es un llamado a la acción, la sostenibildiad debe ser llevada hacia la realidad.
“Los consumidores buscan que se ejecuten las iniciativas y que sean drásticas, tenemos cambios como los ocurridos con el uso de plásticos por las evidencias conseguidas y por eso ahora el compromiso de las compañías es apoyar las regulaciones”, agregó.

Los usuarios tecnológicos buscan que las experiencias sean más armónicas y sencillas, que tengan valor pero que no tengan un impacto negativo en el mundo, por eso también se enfocan en la protección de ecosistemas de movilidad y que su paso por el planeta sea de manera armónica y no haya afectaciones a largo plazo.

La tercer recomendación es el minimalismo de la Data, para que empresas y usuarios saquen sus respectivos provechos. Las personas quieren transparencia en el uso de sus datos pero la clave es cerrar la brecha con las compañías y el uso de esa información.

La cuarta tendencia se refiere al diseño, pues se exige que las empresas se adelanten a lo que viene, en el caso de la movilidad urbana se ven diversas soluciones tecnologícas desde scooters eléctricos a drones. Por eso ahora es tiempo de que los desarrollos se hagan para combatir el desorden con ecosistemas unificados que respondan en tiempo real a las necesidades de las personas.

“Se debe diseñar para el consumidor, la comunicación, proyección y desarrollo debe ser de doble vía y debe existir una retroalimentación constante, para entregar mayor valor de maneras cada vez más sencillas”, indicó el directivo.

La tecnología está para permitir la inclusión de las personas y en 2018 lo que se hizo fue que se diseñó para incluir a las personas de manera consciente.

“Las empresas decidieron desatar y darle más relevancia y espacio a las minorías, pero la paradoja está en que no se excluya de forma inadvertida a otros, hay que establecer ecosistemas escalables de usabilidad y que la segmentación y clasificación se vea más por los usos que se le da a la tecnología y por otras cuestiones”, dijo.

El reto entonces está en darle inclusión en escala y en permitir que sean los usuarios los que adopten una mentalidad consciente de los dispositivos ofrecidos.

El sexto punto está en la transformación de los espacios de trabajo y de retail que requieren de una transformación digital.

“Es tiempo de repensar los enfoques y las herramientas para diseñar los espacios. No sabemos cuánto nos podemos adelantar en las tendencias, eso varía de acuerdo a la compañía y al sector al que hace parte y ahora cada empresa está reevaluando cada segmento de su negocio, sus clientes, el valor que les está dando y ahí está el modelo que debe ser el más efectivo para lograr su cometido”, señaló López.

La ultima tendencia está en el caso de las realidades sintéticas, lo que el estudio señala es que vivimos en un mundo donde la realidad es fabricada. “Con el intercambio de caras y la simulación de voz, se están creando realidades sintéticas más creíbles, las empresas deben encontrar la forma de capitalizar esto y gestionar el riesgo. Más allá de los reflejos auténticos de las realidades con el tema de la inteligencia artificial, se están desarrollando reflejos de la creatividad que aportan al fortalecimiento de la educación o capacitación”, puntualizó.

Según López lo que veremos en Colombia de estas tendencias será adoptada por cada compañía y cada sector a su propio ritmo.

“El reto no está en adelantarnos o acercanos al futuro, lo importante realmente es ofrecerle valor a los colombianos y a su contexto real, que no nos desliguemos de los avances pero tampoco de lo que requerimos y necesitamos, así veremos quienes serán los mejor adaptados, si los líderes actuales o las empresas que hasta ahora nacen”, argumentó.

La iniciativa de la innovación está inmersa en la creatividad y en la adaptabilidad a los mercados, habrá muchos retos también en las empresas establecidas porque deberán aprender e incorporar los desarrollos en vanguardia. Así mismo, la guía de estas innovaciones apunta a los cambios en móvil, en una tecnología que cada día acompaña más y colabora para hacer la vida más sencilla.

DISCURSO SOBRE EL CALENTAMIENTO GLOBAL


El artículo 2 de la Convención Marco de las Naciones Unidas se refiere explícitamente a la «estabilización de las concentraciones de gases de efecto invernadero».​ Para estabilizar la concentración atmosférica de CO2, las emisiones mundiales tendrían que reducirse radicalmente a partir de su nivel actual. ​

La mayoría de los países son miembros de la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC). ​ El objetivo último de la Convención es prevenir una interferencia humana peligrosa en el sistema climático. ​ Como se declara en la Convención, esto requiere que las concentraciones de GEI se estabilicen en la atmósfera a un nivel en el que los ecosistemas puedan adaptarse naturalmente al cambio climático, la producción de alimentos no se vea amenazada y el desarrollo económico pueda proseguir de una manera sostenible. La Convención Marco se acordó en 1992, pero desde entonces las emisiones globales han aumentado. ​
Durante las negociaciones, el Grupo de los 77 (un grupo de cabildeo en las Naciones Unidas que representa a 133 naciones en desarrollo)224​:4 presionó por un mandato que exigiera a los países desarrollados «[tomar] la iniciativa» en la reducción de sus emisiones. ​ Esto se justificó sobre la base de que: las emisiones del mundo desarrollado han contribuido más a la acumulación de GEI en la atmósfera, las emisiones per cápita aún eran relativamente bajas en los países en desarrollo y las emisiones de los países en desarrollo crecerían para satisfacer sus necesidades de desarrollo.

Este mandato se sustentó en el Protocolo de Kioto de la Convención Marco,82​:290 que entró en vigencia en 2005. ​ Al ratificar el Protocolo de Kioto, los países más desarrollados aceptaron compromisos jurídicamente vinculantes de limitar sus emisiones

Estos compromisos de primera ronda vencieron en 2012. ​ El presidente estadounidense George W Bush rechazó el tratado basándose en que «exime al 80 % del mundo, incluido los principales centros de población, como China y la India, de cumplimiento y causaría un grave daño a la economía de Estados Unidos».

En la XV Conferencia sobre el Cambio Climático de la ONU, celebrada en 2009 en Copenhague, varios miembros de la CMNUCC realizaron el Acuerdo de Copenhague. ​ Los miembros asociados con el Acuerdo (140 países, en noviembre de 2010) aspiran limitar el aumento futuro de la temperatura media global por debajo de 2 °C. ​ La XVI Conferencia (COP 16) se celebró en Cancún en 2010

Produjo un acuerdo, no un tratado vinculante, donde las partes deben adoptar medidas urgentes para reducir las emisiones de GEI para cumplir el objetivo de limitar el calentamiento global a 2 °C sobre las temperaturas preindustriales

También reconoció la necesidad de considerar el fortalecimiento de la meta a un aumento del promedio global de 1,5 °C.230​

Discusión científica
Casi todos los científicos están de acuerdo en que los seres humanos están contribuyendo al cambio climático observado. ​ Desde 2004, se han llevado a cabo al menos 9 encuestas a científicos y metaestudios de artículos académicos sobre el calentamiento global

Pese a que hasta el 18 % de los científicos encuestados puede disentir de la opinión consensuada, cuando se restringe a los científicos que publican en el campo del clima, el 97 al 100 % está de acuerdo con el consenso: el actual calentamiento es principalmente antropogénico (causado por el ser humano)

Las academias nacionales de ciencia han hecho un llamado a los líderes mundiales a crear políticas que reduzcan las emisiones globales.

En la literatura científica, existe un fuerte consenso de que las temperaturas superficiales globales han aumentado en las últimas décadas y que la tendencia se debe principalmente a las emisiones antropogénicas de gases de efecto invernadero

Ningún cuerpo científico de prestigio nacional o internacional está en desacuerdo con esta opinión.

La controversia del calentamiento global se refiere a una variedad de disputas, sustancialmente más pronunciadas en los medios de comunicación de masas que en la literatura científica,​ con respecto a la naturaleza, las causas y consecuencias del calentamiento global

Las cuestiones en disputa incluyen las causas del incremento de la media global de la temperatura aérea, especialmente desde la mitad del siglo xx, si esta tendencia de calentamiento no tiene precedentes o está dentro de las variaciones climáticas normales, si la humanidad ha contribuido significativamente a ella y si el aumento es total o parcialmente un artefacto de mediciones pobres

Disputas adicionales se refieren a las estimaciones de la sensibilidad climática, las predicciones del calentamiento adicional y cuáles serán las consecuencias del calentamiento global.

A partir de la década de 1990, en los Estados Unidos think tanks conservadores se movilizaron para objetar la legitimidad del calentamiento global como un problema social

Estos cuestionaron la evidencia científica, sostuvieron que el calentamiento global será benéfico y afirmaron que las soluciones propuestas harían más daño que bien. Algunas personas cuestionan aspectos de la ciencia del cambio climático. ​ Organizaciones tales como el libertario Competitive Enterprise Institute, comentaristas conservadores y algunas empresas como ExxonMobil han impugnado los escenarios IPCC de cambio climático, financiado a científicos que disienten del consenso científico y proveído sus propias proyecciones del costo económico de controles más estrictos. ​ Algunas compañías de combustibles fósiles han recortado sus esfuerzos en los últimos años​ o aun han pedido políticas para reducir el calentamiento global.

Sondeos de la opinión pública
La población mundial, o al menos los habitantes de regiones económicamente desarrolladas, tomó consciencia del problema del calentamiento global a finales de la década de 1980

Al principio, los grupos de sondeo empezaron a estudiar las opiniones sobre el tema principalmente en Estados Unidos. ​ La encuesta seriada más duradera, llevada a cabo por Gallup en EEUU., halló oscilaciones relativamente pequeñas cercanas al 10 % desde 1998 a 2015 en la opinión sobre la seriedad del calentamiento global, pero con una polarización creciente entre aquellos que les preocupa y a los que no.

La primera encuesta importante a nivel mundial, realizada por Gallup en 2008-2009 en 127 países, encontró que el 62 % de la población mundial dijo saber sobre el calentamiento global

En los países desarrollados de América del Norte, Europa y Japón, más del 90 % sabía sobre él (97 % en EEUU., 99 % en Japón); en países menos desarrollados, especialmente en África, menos de un cuarto sabía sobre él, aunque muchos habían notado los cambios meteorológicos locales

Entre aquellos que sabían sobre el calentamiento global, había una gran variación entre las naciones en la creencia de que el calentamiento era resultado de las actividades humanas.

Para el año 2010, con 111 países encuestados, Gallup determinó que hubo una disminución sustancial respecto 2007-2008 en el número de estadounidenses y europeos que consideraron el calentamiento global como una seria amenaza

En los Estados Unidos, solo un poco más de la mitad de la población (53 %) lo considera ahora como una seria preocupación para ellos mismos o sus familias; esto es 10 puntos por debajo de la encuesta de 2008 (63 %)

América Latina tuvo el mayor aumento de la preocupación: un 73 % afirmó que es una seria amenaza para sus familias. ​ Esta encuesta global también encontró que las personas son más propensas a atribuirlo a actividades humanas que a causas naturales, excepto en los EEUU., donde casi la mitad (47 %) de la población lo atribuye a causas naturales. ​
Una encuesta de 2013 realizada por Pew Research Center for the People & the Press interrogó a 39 países sobre las amenazas globales

De acuerdo con el 54 % de los encuestados, el calentamiento global se encontraba entre las mayores amenazas globales percibidas. ​ En una encuesta de enero de 2013, Pew encontró que el 69 % de los estadounidenses dice que no hay pruebas sólidas de que la temperatura media de la Tierra se ha estado calentando durante las últimas décadas, seis puntos adicionales desde noviembre de 2011 y doce desde 2009.

Un sondeo de 2010 en 14 países industrializados halló que el «escepticismo» sobre el peligro del calentamiento global era mayor en Australia, Noruega, Nueva Zelanda y los Estados Unidos, en dicho orden, con una correlación positiva con las emisiones per cápita de dióxido de carbono.

En la década de 1950, la investigación sugirió un aumento de las temperaturas y un periódico de 1952 comunicó un «cambio climático»

Después, esta frase apareció en un informe de noviembre de 1957 en The Hammond Times que describe la investigación de Roger Revelle sobre los efectos del aumento de las emisiones antropogénicas de CO2 en el efecto invernadero: «puede resultar en un calentamiento global a gran escala, con cambios climáticos radicales»

Se usaron ambas frases solo ocasionalmente hasta 1975, cuando Wallace Smith Broecker publicó un artículo científico sobre el tema: «Cambio Climático: ¿Estamos al borde de un calentamiento global pronunciado?»

La frase comenzó a entrar en uso común y en 1976 la declaración de Mijaíl Budyko que «ha comenzado un calentamiento global» fue ampliamente difundida. ​ Otros estudios, como el informe del MIT de 1971, se refirieron al impacto humano como una «modificación climática inadvertida», pero un influyente estudio de 1979 por la Academia Nacional de Ciencias de Estados Unidos, encabezado por Jule Charney, siguió a Broecker en el uso de calentamiento global para el aumento de las temperaturas superficiales, mientras que describió los efectos más amplios del aumento de CO2 como cambio climático.

En 1986 y noviembre de 1987, el climatólogo de la NASA James Hansen dio testimonio ante el Congreso sobre el calentamiento global, pero ganó poca atención

Hubo problemas crecientes de olas de calor y sequía en el verano de 1988 y cuando Hansen testificó en el Senado el 23 de junio provocó el interés internacional.255​ Dijo: «El calentamiento global ha llegado a un nivel tal que podemos atribuir con un alto grado de confianza una relación de causa y efecto entre el efecto invernadero y el calentamiento observado».​ La atención pública se incrementó durante el verano y calentamiento global se convirtió en el término popular dominante, utilizado comúnmente tanto por la prensa como en el discurso público.​

En un artículo de la NASA de 2008 sobre los términos, Erik M Conway definió calentamiento global como «el aumento de la temperatura superficial media de la Tierra debido a los crecientes niveles de gases de efecto invernadero», mientras que cambio climático es «un cambio a largo plazo en el clima de la Tierra o de una región de la Tierra»

Ya que los efectos como cambios en los patrones de precipitaciones y el aumento del nivel del mar probablemente tendrían más impacto que solo las temperaturas, consideró cambio climático global un término más científicamente exacto y, al igual que el Grupo Intergubernamental de Expertos sobre el Cambio Climático, el sitio web de la NASA enfatizaría este contexto más amplio.

EL DESHIELO EN LA ANTÁRTIDA Y EN GROENLANDIA PROVOCARÁ UN CLIMA MÁS INESTABLE

El aumento de temperaturas en algunas regiones incrementa el riesgo de fenómenos climáticos extremos.

Si se reducen las emisiones, el aumento del nivel del mar podría ser inferior a 20 cm, según dos estudios

La mayor amenaza del cambio climático está en el mar

Las inmensas masas de hielo glaciar de la Antártida y Groenlandia guardan el secreto de los cambios que están por venir. Por eso una buena parte de los estudios sobre el calentamiento global gira en torno a ellos; porque establecer el ritmo al que pierden volumen es un factor clave para determinar el aumento del nivel del mar en las próximas décadas, uno de los principales riesgos asociados al cambio climático.

Pero además, la desaparición de los casquetes glaciares tiene otros efectos indirectos y provocará una clima cada vez más variable en todo el mundo, según explica un estudio publicado este miércoles en Nature.

Investigadores de la Universidad de Victoria (Australia) han realizado un seguimiento vía satélite de los cambios recientes en los casquetes glaciares de Groenlandia y la Antártida, a partir del que han elaborado modelos sobre su evolución y su impacto en el clima. "Al añadirse el agua de deshielo a la circulación normal del océano, ésta se interrumpe y no distribuye el calor alrededor del planeta como debería", explica Nicholas Golledge, experto de paleoclimatología del centro australiano y autor principal de la investigación. "Esos cambios que estamos viendo en nuestros modelos van a propiciar eventos climáticos más extremos".

En concreto, Golledge y su equipo apuntan al agua procedente de la capa de hielo de Groenlandia y a su efecto sobre la Circulación Meridional del Atlántico, una corriente marina que transporta agua caliente desde los trópicos hacia el Atlántico Norte y que juega un papel fundamental en el clima mundial. Su trabajo aparece sólo unas semanas después de que otra investigación, publicada en la revista PNAS, señalase que la isla danesa está perdiendo su manto de hielo -tanto en los glaciares como en la superficie- a mayor ritmo del que se estimaba y que la región cada vez es más sensible a los efectos del cambio climático.

El artículo aparecido esta semana en Nature estima que la variabilidad climática interanual puede aumentar hasta en un 50% en algunas regiones del globo. "Un ejemplo es el calentamiento que se está produciendo en Golfo de México, punto en que se originan muchos huracanes y tormentas tropicales", señala el autor.

"Sabemos que estos fenómenos están controlados en gran medida por el calor del océano: así que más calor equivale a más tormentas". En enero, otros dos estudios aparecidos en Nature Communications y AAS coincidían en señalar que el calentamiento de la capa superficial del mar está modificando el clima mundial, facilitando la formación de lluvias torrenciales, de tormentas más intensas y aumentando la intensidad del oleaje.

En el hemisferio sur, el modelado del deshielo es más complejo. En la Antártida la pérdida de masa helada proviene del calor del océano, a diferencia de Groenlandia donde las condiciones ambientales juegan un papel más importante.

Al derretirse, el agua dulce que fluye hacia la superficie oceánica se queda en la superficie y actúa como lupa, lo que provoca que el agua caliente quede atrapada bajo la superficie, un proceso que acelera la desaparición de los bloques helados que flotan bajo el continente. "El agua derrite la parte inferior de las plataformas de hielo, lo que hace que fluya más cantidad hacia el mar desde el interior", explica Golledge. "Aquí el vínculo es más indirecto y en función de los procesos intermedios que se tengan en cuenta, se pueden obtener estimaciones muy diferentes".

La expansión térmica que se produce al calentarse los océanos, unida al deshielo de los polos, de Groenlandia y de los glaciares, ha contribuido a que el nivel mar haya aumentado 19 cm en el último siglo. El Grupo Intergubernamental de Expertos sobre el Cambio Climático de la ONU (IPCC) estima que para 2100, ese incremento podría ser de 40 o 63 cm adicionales, si no se frenan las emisiones de CO2.

Los autores señalan que si se consigue reducir esos niveles -algo que pasa por cumplir lo establecido en el Acuerdo de París- la subida del mar podría mantenerse por debajo de 20 cm. "El aumento del nivel del mar va a continuar durante miles de años, incluso reduciendo las emisiones, pero el ritmo al que lo hace es algo que podemos controlar", advierte el científico. "Y eso es fundamental, porque los costes asociados a una adaptación progresiva serán mucho menores que en una adaptación rápida".

Inestabilidad en los acantiladosEn un segundo artículo aparecido en Nature, científicos del King's College de Londres exploran la influencia del colapso de los grandes acantilados de hielo de la Antártida. En 2016, un estudio publicado en Nature Climate Change y elaborado por científicos de la Universidad de Georgia (EEUU) afirmaba que la ruptura de estas plataformas sobre el mar había sido ignorada en las estimaciones sobre el aumento del nivel del mar y, en consecuencia, elevaban las previsiones hasta 1,5 metros antes de final de siglo.

Sin embargo, investigadores británicos han rechazado esta hipótesis, tras analizar el comportamiento del nivel del mar en tres períodos cálidos distintos: el plioceno medio (hace unos 3 millones de años), el interglaciar Ipswichiense (hace unos 130.000-115.000 años) y la actualidad. Su conclusión es que este mecanismo no ha tenido un papel relevante en ninguna de ellas. "La inestabilidad de los acantilados de hielo no parecen haber sido un factor esencial para explicar los cambios del nivel del mar en el pasado", explica la doctora Tamsin Edwards, autora principal del trabajo, "lo que abre dudas sobre si se debe incluir o no en futuras estimaciones".

EL PRECIO DEL COBALTO CAE VÍCTIMA DE LOS AUTOS ELÉCTRICOS


Los precios del cobalto cayeron inesperadamente en picado, después de su crecimiento registrado en 2018. ¿Qué se esconde detrás de este desplome?

La historia de lo que ocurrió con el cobalto fue un clásico ciclo de auge en el ámbito de las materias primas. Se creía que la demanda de autos eléctricos crecería y los inversores destinarían más recursos a comprar el cobalto, escribe el periodista Mark Burton en su artículo para Bloomberg.

Este metal precioso está provocando una nueva 'fiebre del oro'
Este metal es un componente crítico de las baterías de iones de litio que se utilizan en la mayor parte de los autos eléctricos contemporáneos. El factor que contribuyó al aumento de la extracción del cobalto fue la opinión generalizada de que sus suministros eran limitados.

"Desde el punto de vista geológico, el metal no es raro, pero se produce exclusivamente como subproducto en las minas de cobre y níquel", destaca el autor del artículo.

Efectivamente el auge de precios del cobalto fue provocado por el 'boom' en los suministros procedentes de la República Democrática del Congo.

Según cálculos de la empresa Fastmarkets MB, los precios se desplomaron más de un 60% hasta situarse en 15,88 dólares por libra desde el apogeo registrado en abril de 2018.

Glencore, la empresa multinacional con sede en Suiza, que es el mayor productor de cobalto en el mundo, aumentó su extracción en las minas situadas en el Congo. Los mineros chinos tampoco se rezagaron y aumentaron su producción para alimentar la creciente demanda mostrada por parte de los productores de baterías.

Un solo mineral amenaza la producción de 'smartphones' y autos eléctricos
Además, "miles de pequeños mineros lucharon por poder utilizar los depósitos ricos en este mineral, frecuentemente trabajando de una manera ilegal en los peligrosos pozos improvisados, donde la materia prima se extraía con las manos", enfatiza.

De acuerdo con la casa comercial Darton Commodities, los suministros de estas minas artesanales aumentaron en más del doble entre 2016 y 2018.

"Aunque actualmente el mercado de cobalto está de baja, todavía hay mucho optimismo acerca de su futuro. Los productores automovilísticos aún planean desplegar sus modelos de autos eléctricos", destaca Mark Burton.

En la empresa Citigroup creen que el cobalto puede reponer el 16% de su precio este año mientras que el paro en  la mina de Katanga amenaza con sumergir el mercado en un déficit de suministros.

Las exportaciones del hidróxido de cobalto de la empresa Kamoto Copper Company permanecieron suspendidas. Esta compañía opera la empresa Katanga Mining responsable de llevar a cabo la exploración en la mina de Katanga en el Congo. El cese de sus exportaciones está relacionado con el descubrimiento de mezclas de uranio en su hidróxido de cobalto extraído de Katanga.

¿QUÉ SON LOS CHATBOTS Y PARA QUE LE SIRVEN A LAS EMPRESAS?


Etiquetado como atención al cliente, automático, chatbot, chatbots, clientes, conversación, conversaciones, emprender, emprendimiento, Empresas, gestion, información, Innovación, inteligencia artificial, interacción, interacciones, Internet, negocio, nuevas tecnologías, programas informáticos, tecnología, usuarios
    
Los chatbots o bots conversacionales son programas informáticos diseñados para simular conversaciones con personas a través del teclado o mediante la voz.

Existen dos tipos diferentes de chatbots:

“Dumb Chatbots”. Tienen un funcionamiento sencillo basado en una serie de patrones. Para cada palabra, frase o pregunta que el usuario escribe o dice, el chatbot tiene programada una respuesta determinada. Esto implica que solo puede responder a las palabras o frases que tenga registradas.

“Smart Chatbots”. Este tipo de chatbots funciona con sistemas de Inteligencia Artificial (I.A.). Tienen capacidad para actuar simulando el comportamiento humano y pueden mantener conversaciones mucho más fluidas que un contestador automático. Además, aprenden tras cada conversación sobre nuestros gustos o preferencias, lo que les permite tomar mejores decisiones en conversaciones futuras.

El objetivo de los chatbots es conseguir que la comunicación de las empresas con sus clientes sea eficiente, relevante y personalizada. Los usuarios pueden pedir información de todo tipo o solicitar que se lleve a cabo una acción. Una de sus ventajas es que, a diferencia de las aplicaciones, no es necesario descargarlos ni actualizarlos, y no ocupan espacio en la memoria del móvil. Además, el coste es bajo y están activos las 24 horas del día, 7 días a la semana.

¿Cómo los utilizan las empresas?
La rápida mejora de los software de I.A. ha generado en los últimos años un fuere crecimiento en el uso de los chatbots por las empresas. Grandes compañías como Skype, Telegram, Windows o Messenger ya han apostado por los bots conversacionales, además de un gran número de start-ups.

Pero… ¿cómo los utilizan las empresas? Las formas en que tu empresa puede usar un chatbot son muchas. Las principales son:

Atención al cliente.
Los chatbots son utilizados en la mayoría de los casos para desempeñar las funciones de atención al cliente. Son capaces de recoger datos de registro, proporcionar información, responder preguntas frecuentes, etc.

Mejoran la atención al cliente, hacen que las interacciones con este servicio sean más rápidas y simples y generan experiencias de usuario agradables.

Gestión de compras y pagos online
Los chatbots simplifican los procesos de compra y pago online. Proporcionan información y resuelven los problemas que los usuarios tienen a lo largo del proceso de decisión de compra. Realizan búsquedas, facilitan artículos similares o incluso permiten realizar pagos desde el propio chat.

Envío de información y novedades sobre tu empresa
Los chatbots pueden enviar información y novedades sobre la empresa de forma automatizada a los clientes. Si se hace un uso adecuado, puede ser una herramienta muy útil para tu negocio.

Todavía nos encontramos en la fase de inicio de estos programas informáticos, pero a medida que la tecnología avance, los servicios ofrecidos por los chatbots serán mejores, las interacciones serán más naturales y se llegará a automatizar casi cualquier tipo de cosa.

LOS ÚLTIMOS CUATRO AÑOS HAN SIDO LOS MÁS CALIENTES DE LA TIERRA


2016 sigue ostentando el récord del año más caluroso
Así fueron los fenómenos meteorológicos extremos de 2018

Si le ha parecido que los últimos años han sido más cálidos de lo habitual no ha sido sólo una sensación. Según ha confirmado este miércoles la Organización Meteorológica Mundial (OMM), los cuatro últimos años han sido los más calurosos en la Tierra desde que existen registros.

A esa misma conclusión han llegado los análisis realizados por el Instituto Americano para los Océanos y la Atmósfera (NOAA, por sus siglas en inglés) y el Instituto Goddard de Estudios Espaciales de la NASA, cuyos estudios han sido publicados con más de un mes de retraso debido al cierre parcial de la Admnistración de EEUU durante 35 días.

La Organización Meteorológica Mundial atribuye el encadenamiento de años anómalamente calurosos a las concentraciones récord de gases de efecto invernadero en la atmósfera. En un comunicado, el organismo de la ONU precisa que la temperatura media en la superficie terrestre en 2018 fue un grado centígrado más alta que la media durante la época preindustrial (el periodo de referencia usado es 1850-1900).

"2018 se sitúa en el cuarto lugar en la lista de años más cálidos que hayan sido constatados", dice el organismo. No obstante, 2016 sigue ostentando el récord como el más cálido desde que existen registros, con un incremento de 1,2 grados centígrados respecto a la época preindustrial. Ese año, dice la institución, se vio influenciado por el fenómeno de El Niño.

Por lo que respecta a 2015 y 2017, la subida fue de 1,1ºC , de modo que 2015 se posiciona como el segundo año más cálido y 2017,como el tercero.

El secretario general de la OMM, Petteri Taalas, ha subrayado la importancia de mirar a las series históricas para comprender los cambios y ha recordado que de los últimos 22 años, 20 se encuentran entre los más calurosos.

Por su parte, la NOAA destaca que nueve de los diez años más cálidos han ocurrido desde 2005.

Reducir emisiones, una prioridad internacionalPara Taalas, las altas temperaturas "son sólo una parte de la historia". Y es que, como ha destacado, el año pasado fue particularmente virulento en lo que se refiere a fenómenos extremos que afectaron a numerosos países, por lo que ha instado a la comunidad internacional a considerar como "una prioridad absoluta la reducción de emisiones de gases de efecto invernadero y la puesta en marcha de medidas para adaptarse a los cambios en el clima".

"Muchos de los fenómenos extremos son consistentes con lo que esperamos del cambio climático. Es una realidad a la que tenemos que hacer frente", ha asegurado.

Según datos de la NOAA, sólo en EEUU los desastres climáticos y meteorológicos provocaron el año pasado pérdidas de 14.000 millones de dólares y causaron la muerte a, al menos, 247 personas. El más grave fue el huracán Michael, seguido por los incendios en la costa oeste y el huracán Florence.

Los científicos de la OMM creen que 2019 podría ser igual de caluroso. Durante las primeras semanas del año se han registrado temperaturas más altas de lo habitual en distintos lugares del planeta. Australia y Tasmania han vivido su enero más cálido desde que hay registros, con olas de calor récord. Un tiempo que ha contrastado con las intensas olas de frío que han afectado a América del Norte durante el mismo periodo. "El frío que ha azotado al este de EEUU en absoluto rebate el cambio climático", ha aclarado Taalas, en alusión a los que, como Donald Trump, aprovechan esas olas de frío extremo para negar el cambio climático.

"El calentamiento del Ártico es el doble que la media y una gran parte del hielo de esa región se ha derretido. Esos cambios están afectando a la meteorología en otras zonas del Hemisferio norte", dice Taalas, que considera "que una parte de las anomalías de frío en latitudes más bajas pueden ser vinculadas a los cambios dramáticos que está experimentando el Ártico".

Y es que, como resume, "lo que ocurre en los polos no se queda en los polos, sino que influye en la meteorología y en las condiciones de las latitudes más bajas, donde viven cientos de millones de personas".

En CINCO AÑOS SE PODRÍA ALCANZAR EL AUMENTO DE 1,5ºC
Por su parte, la Oficina Meteorológica Británica (Met Office) predice que la temperatura global del planeta puede superar por primera vez los 1,5 grados con respecto a los niveles preindustriales en los próximos cinco años por una combinación del aumento de las emisiones de CO2 y por el fenómeno climatológico de calentamiento del Pacífico conocido como El Niño.

"Estamos ante una señal de alarma, pero eso no supone que se pueda romper el techo fijado por el Acuerdo de París", reconoce en declaraciones a The Guardian el profesor Adam Scaife, de la Met Office. "Estamos hablando de una superación temporal de los 1,5 grados por un combinación del calentamiento global y las variaciones naturales del clima".

Las predicciones del Met Office hablan de un 90% de posibilidades de que las temperaturas aumenten entre 1,03 grados y 1,57 de aquí al 2023.

El último informe del Panel de Cambio Climático de la ONU advierte que para mantenerse bajo el límite "seguro" de 1,5 grados habría que reducir un 45 % las emisiones de gases invernadero en la próxima década.

Seguir en Facebook

TuMesaDeDinero

https://support.google.com/adsense/answer/6185995

Anuncios