Por Felicia Saturno Hartt. Foto: Dennis Kleiman.- Durante las Olimpiadas de Londres, los que adoramos el atletismo, observamos a un corredor en la línea de salida de los 400 metros, con sus prótesis de carbono, en una competencia convencional no paraolímpica, sentimos que un profundo avance se había suscitado en el escenario social, la discapacidad era superable.

Ese corredor, Oscar Pistorius, lidiaba con otro problema: la Federación Internacional de Atletismo (IAAF), desde hacía 4 años, no estaba de acuerdo que compitiese, debido a que diversos estudios aseguraban que sus prótesis le daban ventaja sobre cualquier competidor.

Un equipo de científicos dirigidos por el doctor Peter Brüggemann, de la Universidad de Colonia, había determinado, en 2007, que sus prótesis le daban ventaja sobre el resto de atletas, porque le impulsaban extraordinariamente, en cuanto adquiría cierta velocidad, actuando como una especie de muelles y le ahorraban un gasto de energía de hasta un 25%.

Esta fabulosa ventaja tenía un artífice, el escalador, ingeniero y biofísico Hugh Herr, hoy ganador del Premio Princesa de Asturias de Ciencia y Tecnología. E incluso logró su fichaje para Londres.

Herr (Lancaster, 1964), experto en Biomecánica del Instituto Tecnológico de Massachusetts, ha sido galardonado por crear las prótesis más sofisticadas del mundo. Obras maestras de la ingeniería que mezclan mecánica con sensores y que, según él mismo explicaba “cerrarán la brecha entre discapacidad y capacidad”.

El artífice también vivió la discapacidad

La historia de Herr es, incluso, más dramática que la de Pistorius. En 1982 era considerado uno de los mejores alpinistas jóvenes de EEUU, cuando durante una escalada en el Monte Washington, una enorme ventisca atrapó a su expedición. Fruto de la congelación, sus dos piernas tuvieron que ser amputadas. Ahí empezó su carrera por volver a subir montañas justo en el punto donde lo había dejado.

La adversidad le motivó a centrarse en sus estudios y tras especializarse en ingeniería mecánica, comenzó a elaborar prototipos de lo que hoy son las piernas biónicas sobre las que camina y que le han permitido volver a escalar con regularidad.

Ahora, tras años de estudio, Herr ha desarrollado más de 50 patentes de prótesis inteligentes. “A través de la innovación tecnológica, regresé a mi deporte más fuerte y mejor; y entonces comencé a imaginar un futuro donde la tecnología estaría tan avanzada, que podría librar al mundo de la discapacidad”, explica el ingeniero.

Actualmente, es profesor asociado en el Programa de Arte y Ciencias del MIT, y en la División Ciencias de la Salud y Tecnología de Harvar- MIT. Como líder del grupo de investigación en el área de Biomecatrónica en el MIT Media Lab, se enfoca en el desarrollo de sistemas robóticos que aumenten la capacidad física humana. La mayoría de sus diseños son para personas con dificultades y situaciones similares a las suyas.

Herr ha publicado más de 60 documentos peer-reviewed en el área de rehabilitación y es titular (o cotitular) de más de 10 patentes, 4 relacionadas con dispositivos de asistencia, incluyendo rodillas artificiales controladas por computadora, 5 disponible en el mercado como Rheo Knee, 6 una órtosis activa de tobillo y pie y la primera prótesis electrónica de tobillo-pie en el mundo.

Todo esto está provocando un avance en el relativamente nuevo campo de la ingeniería biónica que, por medio de principios en biomecánica y control neural, marca la pauta para el diseño en dispositivos en el área de rehabilitación y mejora de capacidades motrices. La meta es lograr rehabilitar completamente a pacientes que han sufrido amputaciones, así como aumentar capacidades físicas de aquellos con fisiología intacta.

En una entrevista realizada por Javier Anzorena, del diario ABC de España, Herr planteó que estamos llegando a la Era Biónica, porque “Se está produciendo una fusión de campos clave relacionados con la biónica, como el aprendizaje de las máquinas, la ingeniería de tejidos o la robótica. Todas están convergiendo en este momento de la historia”.

En este sentido, este biofísico del MIT es enfático en afirmar que “estamos en la edad en la que comenzamos a ver la integración de la tecnología en el cuerpo humano. Esos diseños son más que herramientas. Cuando implantamos una de nuestras piernas biónicas en los pacientes una reacción habitual es que digan “me han devuelto mi cuerpo, me han devuelto mi pierna”. Lo siento, pero cuando a alguien le das un martillo no piensa que le has devuelto su cuerpo”.

Cuando se le pregunta cuánto mejoraremos el cuerpo con esta tecnología Herr habla de lo que ya es posible: Nosotros fuimos los primeros en construir un exoesqueleto de una pierna para una persona que tenía todas sus extremidades, en 2014. Ya tenemos exoesqueletos que mejoran la capacidad humana. En los próximos años y décadas, veremos estructuras de este tipo con aplicaciones increíbles: nos permitirá correr más rápido, con menos gasto de energía, con menos desgaste de nuestro cuerpo… Es apasionante”.

Posibilidades biónicas que no sólo se usarán en la discapacidad, para reparar órganos o partes del cuerpo, sino cuando queramos mejorar nuestra capacidad. “Hay gente con una patología en una extremidad que quiere recuperar la normalidad. Y hay gente con una fisiología normal que quiere mejorar su capacidad con un exoesqueleto”, indica Herr.

Herr plantea, desde otra perspectiva, lo que significa el avance tecnológico, con todo un análisis proyectivo: “A medida que nos adentremos en el siglo XXI, nos preguntaremos una y otra vez qué significa ser humano. Si reemplazas las cuatro extremidades de un humano con máquinas, ¿es esa persona todavía humana? Este siglo tendrá que enfrentarse a cuestiones filosóficas muy interesantes sobre la naturaleza de lo humano”, señala.

Esperamos que Herr y otros científicos logren perfeccionar estas fabulosas invenciones para, no sólo hacer más inclusivas estas herramientas, en pos de una vida normal a los dispacitados, mejorar la capacidad humana ante el dolor y la vejez.

 

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Foto: Arctic Cable Company.- El gigante de las redes sociales Facebook y la compañía pionera en informática, Microsoft, se han aliado para desplegar un cable submarino de última generación, dirigido a unir sus centros de datos, a ambos lados del Atlántico, con la colaboración de la empresa española de telecomunicaciones Telefónica, informaron las gigantes tecnológicas.

El nuevo cable submarino unirá Virginia Beach (Virginia) con la localidad vizcaína de Sopelana (Bilbao, España), con el objetivo de acelerar las comunicaciones de centros de datos y servidores de los dos gigantes tecnológicos, a ambos lados del océano Atlántico.

160 terabits por segundo

El proyecto ha sido bautizado como "Marea" y tendrá la capacidad de transmitir 160 terabits por segundo a través de los casi 6.600 kilómetros de largo que tendrá esta construcción,  16 millones de veces más veloz que una conexión de internet doméstica, lo que lo convierte en el cable transatlántico con la banda más ancha que existe. La infraestructura la gestionará la empresa Telxius Telecom, creada recientemente por Telefónica.

Con el crecimiento imparable de gigantes de internet como Facebook, estas empresas están buscando modos de controlar la infraestructura que utilizan para conectar sus centros de datos y operar de manera más eficiente.

El proyecto “Marea” tendrá un sistema de “infraestructura abierta”, lo que le permitirá funcionar con tecnologías de distintos fabricantes y gracias a esto tendrá costos más bajos en su desarrollo y además contará con un sistema de actualizaciones muchos más rápido y flexible.

El cable submarino se espera que esté operativo en octubre de 2017 y su tráfico dará prioridad a las necesidades de Facebook y Microsoft.

“Nueva generación de infraestructura de internet”

El gran número de cables de telecomunicaciones que unen ambas orillas del Atlántico se originan en Nueva York, pero "Marea" está ubicado más al sur, cerca del centro de datos que Facebook tiene en Rutherford (Carolina del Norte)

"El cable Marea ayudará a satisfacer la mayor demanda de alta velocidad y fiabilidad para la conexión en la nube y los servicios online de Facebook y Microsoft y sus clientes", informaron las empresas en un comunicado conjunto.

El objetivo de este innovador cable es crear la "nueva generación de infraestructura de internet". Microsoft utilizará este nuevo elemento para sus servicios en la nube, como los de la plataforma Azure, del dispositivo Xbox o de servicios como Skype u Office.

Facebook y Microsoft buscan reforzar la seguridad que ofrece el envió de datos y, además, mejorar sus servicios de almacenamiento en la nube. Generalmente todos los cables que se encuentran cruzando el Atlántico parten desde la ciudad de Nueva York, provocando que exista una mayor cantidad de estos y además se sature el sector. En el caso de Marea, este será instaurado desde más al sur para que así pueda ser más ancho y con esto permitir más conexiones de datos.

Finalmente, ambas empresas reiteran que este nuevo y moderno cable no solo les permitirá trabajar entre Estados Unidos y Europa, sino que también les proporcionará la posibilidad de enviar datos a otros lugares del mundo, como Asia, África y el Medio Oriente.

Write comment (0 Comments)

Por Felicia Saturno Hartt. Fotos: Memorial Sloan Kettering Cancer Center.- Para los escépticos y contradictores de la Tecnología, sobre todo de la Informática, el Proyecto del Memorial Sloan Kettering Cancer Center, un instituto estadounidense centrado en el tratamiento de esta enfermedad, liderado y cofundado por el ingeniero Paul May, no sólo les llegaría a asombrar, sino a conmover.

Paul May es el cofundador de un particular equipo multidisciplinar, que ha encontrado, en los miles de millones de datos que genera el hospital, la oportunidad para marcar la diferencia y usar el "big data" para combatir el cáncer, una de las principales causas de mortalidad en todo el mundo.

El Equipo de Productos, usa toda la información que se genera en el centro para desarrollar tecnología biomédica, es crear ‘software’ útil.

May es el responsable de identificar en qué proyectos van a trabajar y de asegurarse de que desarrollan ‘software’ de calidad. El equipo no se encarga únicamente de trabajar con análisis de datos, sino que programa herramientas que ponen el "big data" a trabajar para médicos e investigadores, intentando dar a los datos un uso real que pueda marcar la diferencia para los 130.000 pacientes que pasan cada año por el centro.

Un "software" inteligente para estudios clínicos

En la actualidad, el equipo está trabajando en proyectos relacionados con la investigación clínica y el ‘machine learning’, “enseñando” a su ‘software’ cómo entender los ensayos clínicos con un nivel de detalle sin precedentes. Ya han sido capaces de desarrollar un programa especializado que se ha implantado en el centro.

“Descubrimos que era posible pescar toda la información relativa a ensayos y extraer conjuntos muy precisos de términos médicos y de criterios de elegibilidad, de manera que se pudiera buscar, de forma automática, en qué ensayo encaja cada paciente”, concreta May.

Gracias a este trabajo, un doctor del hospital puede describir, en un lenguaje natural, las características de un paciente y el ordenador le mostrará, de forma automática, los estudios que más se corresponden con ese sujeto.

Esto implica que los médicos no tienen que conocer cada ensayo y estadística al detalle, ya que, según este experto, la respuesta está a una única búsqueda de distancia. “Queremos que los médicos puedan centrarse en su trabajo y en el tratamiento de los pacientes. Nosotros nos encargamos de la complejidad de trabajar con los datos entre bastidores”, afirma.

El salto de los datos a un nuevo nivel

El Ingeniero May trabajaba en el hospital cuando se dio cuenta de que podían crear herramientas concretas, que contribuyeran a cambiar el funcionamiento del centro. Los datos ya se habían convertido en pieza fundamental del instituto de la mano de Ari Caroline, Jefe de Análisis de Datos y líder del Departamento de Estrategia e Innovación, al que ahora pertenece el nuevo equipo de reciente creación y del que May ya formaba parte.

Caroline y su grupo habían descubierto que los registros en el hospital disminuían cuando los pacientes no se sentían financieramente seguros, demostrando que los enfermos tienen muy en cuenta los costes a la hora de someterse a un tratamiento.

En ese mismo sentido, un estudio posterior logró persuadir a algunas aseguradoras de que cubrir tratamientos de alta calidad al inicio de un cáncer podría ahorrarles mucho dinero a largo plazo.

En el contexto de la salud pública estadounidense, en el que la mayoría de los pacientes no pueden afrontar los costes médicos y en el que las aseguradoras intentan limitar al mínimo los servicios que cubren, los datos supusieron una pequeña pero relevante victoria. Aunque hubiera que apelar al factor económico para obtenerla.

Watson, el Diagnosticador de IBM

Este departamento fue también el encargado de  entrenar a Watson, el superordenador de IBM, para que fuera capaz de entender un caso de cáncer y que tratara de replicar el proceso de decisiones usado por los doctores del centro, con el objetivo de desarrollar, en un futuro, herramientas que contribuyan al diagnóstico. 

Este era el sentido en el que quería trabajar Paul, que "había trabajado previamente en agencias de tecnología y de diseño y ya había entendido, hace tiempo, el valor que un equipo multidisciplinar podría aportarle a un lugar como el Memorial Sloan Kettering Cancer Center”.

Así que, junto con Alex Grigorenko -encargado ahora de los científicos de datos- y Bobby Genalo -en la actualidad diseñador de concepto-, se puso manos a la obra y diseñó prototipos que empleaban el aprendizaje automático. Consiguieron el apoyo de Ari Caroline, se convirtieron en un equipo oficial en septiembre de 2015 y empezaron a trabajar en problemas cada vez más avanzados.

En la actualidad el equipo está formado por ocho personas: tres científicos de datos, tres ingenieros de ‘software’, un diseñador y Paul May, el jefe del equipo. En los próximos meses serán once y esperan ampliar de nuevo la plantilla antes de que acabe 2016.

Para explicar el impacto de su trabajo, los miembros del equipo  suelen referirse a "Moneyball", la novela de Michael Lewis que se convirtió en película en 2011 con Brad Pitt como protagonista.  En la historia, Billy Beane es el gerente general del  Oakland Athletics y consigue relanzar a este equipo de béisbol con la ayuda de un economista, utilizando los datos para fichar a los mejores jugadores. Un método que, aunque criticado en un principio, revolucionó el béisbol profesional. Ellos aspiran a ser los Billy Beane del sistema médico, usando la estadística para lograr más victorias contra el cáncer.

Datos para cambiar el mundo

En su día a día, el equipo trabaja con médicos e investigadores para encontrar la forma en que los datos puedan ser más útiles, fluidos y visuales. “Tendría que ser posible que un investigador tuvieran una corazonada y la pudiera validar en un segundo. Los datos son un material bruto muy valioso, así que queremos que sean lo más útiles posible, de forma que los médicos e investigadores puedan innovar tan rápidamente como su imaginación se lo permita”, concreta May.

Intentan desarrollar programas accesibles e intuitivos a los que investigadores y médicos puedan adaptarse fácilmente. De momento, y según el experto, la aceptación por parte del equipo del centro es muy buena. Se muestran además muy dispuestos a ayudarles y a proporcionarles información que pueda ayudar en la creación de nuevos algoritmos.

Más allá de las pequeñas trabas que puedan derivarse de la burocracia, buscar empleados competentes es la parte más compleja del trabajo de Paul May. “Es complicado encontrar a gente con verdadero talento que pueda ayudar con nuestro trabajo: ingenieros de ‘software’, científicos de datos y diseñadores están altamente demandados en Nueva York.”

“Pero creo que tenemos un trabajo realmente emocionante que ofrecer, un trabajo que tiene impacto real, así que tengo confianza en que el equipo seguirá creciendo y en que conseguiremos grandes avances en el futuro”, defiende May.

Enterrada entre los millones de datos que el hospital procesa cada día, hay información muy valiosa con detalles únicos que, bien interpretados, pueden ser vitales para mejorar los tratamientos. El plan de este equipo de guerreros del "big data" es sacarla a la superficie y apuntarse cada vez más éxitos en la lucha contra la enfermedad.

“El hospital maneja una cantidad enorme de datos: millones de imágenes, resultados de laboratorio, perfiles genéticos y piezas de texto son generados cada mes. Y solo estamos arañando la superficie de las posibilidades de todos ellos”, sentencia May.

Write comment (0 Comments)

Por Felicia Saturno Hartt.-  Hasta el 8 de junio se encuentra abierta la convocatoria de INTALENT, la competencia que reconoce el talento innovador de base tecnológica y el desarrollo de la Economía Naranja en América Latina y el Caribe.

El objetivo es identificar, especialmente, emprendimientos que logren un impacto en el comercio y la integración regional profundizando las relaciones de intercambio entre los distintos mercados de la región. Tendrán una consideración especial los proyectos innovadores de base tecnológica en las áreas definidas como prioritarias por los organizadores de la convocatoria.

La Competencia Regional Intalent es promovida por el Banco Interamericano de Desarrollo (BID), en conjunto con MIT Technology Review en español y evaluará los proyectos que se postulen, en las categorías de artes, audiovisuales, herencia cultural, nuevos medios, software y arquitectura con la característica primordial de generar impacto en el comercio e integración en América Latina y el Caribe.

Pueden participar emprendedores que tengan la nacionalidad de alguno de los 26 países prestatarios del BID y que hayan desarrollado un proyecto original de base tecnológica con potencial de generar un impacto en el comercio y la integración. Este proyecto debe estar asociado a una o varias de las áreas comprendidas dentro de la Economía Naranja.

La iniciativa, por medio del concurso, busca destacar proyectos con potencial de crear riqueza y que contribuyan a mejorar la calidad de vida de latinoamericanos y caribeños, a partir de sus logros en materia de propiedad intelectual.

El premio principal son 10 mil dólares y un viaje a EmTech, una Conferencia de Tecnologías Emergentes de MIT Technology Review en Boston, Estados Unidos. El segundo premio es un viaje a Washington para asistir al concurso Idear Soluciones, organizado por el BID, donde se reunirán las startups más innovadoras en las industrias creativas y culturales de la región.

Una categoría especial de INTALENT premia, con 2 mil dólares, una fotografía sobre el cambio climático regional.

INTAL y MIT Technology Review en español confeccionaron un comité de jueces integrados por expertos de distintas nacionalidades que actuarán como jurados. El panel incluye empresarios, tecnólogos e investigadores de diversas universidades. Las evaluaciones emitidas por este jurado serán utilizadas por la organización para la elección final de los ganadores.

Ecos invita a los creativos de Argentina, Bahamas, Barbados, Belice, Brasil, Bolivia, Colombia, Costa Rica, Chile, Guatemala, Ecuador, El Salvador, Guyana, Haití, Honduras, Jamaica, México, Nicaragua, Panamá, Paraguay, Perú, República Dominicana, Surinam, Trinidad y Tobago, Uruguay y Venezuela para que participen en el concurso.

Para más información pueden consultar la página web del concurso: http://www.intalentlatam.com/.

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Foto Cinaoggi.- Uno de los temas de agenda gubernamental e incluso parlamentaria que podría inspirar a los votantes, a corto y mediano plazo, es el desafío del E-waste, o reciclaje de equipos eléctricos y electrónicos, partes, piezas y demás objetos, de gran impacto medio ambiental y en seres vivos, la nueva basura del siglo XXI.

De acuerdo a la Organización para la Cooperación y el Desarrollo Económico (OCDE) un desecho electrónico o e-waste, es todo dispositivo alimentado por la energía eléctrica, cuya vida útil haya culminado.

En este sentido, la convención de Basilea, por su parte, define a la chatarra electrónica como todo equipo o componente electrónico, incapaz de cumplir la tarea para la que originariamente fueron inventados y producidos.

El gran reto de gobiernos y legisladores, a nivel mundial, ya que sólo Suecia, Dinamarca, Suiza y Bélgica, existe una cultura del e-waste  y procesos exitosos de recolección y reciclaje de basura electrónica, es no sólo definir con claridad el tratamiento de estos desechos según su naturaleza, impacto y posible beneficios, sino articular una política pública, sustentada en leyes socioambientales, que apunte más allá del vertedero electrónico, de tanto o más impacto ecológico que los vertederos tradicionales, cree conciencia del uso y genere incluso valor agregado.

Es desilusionante mencionar que las 50 millones de toneladas de desechos electrónicos que se generan anualmente, en gran medida, van dirigidos a los vertederos tradicionales, donde se mezcla con otras basuras y chatarras.

China posee el mayor vertedero del mundo de ese tipo, concretamente en la ciudad de Guiyu y se calcula que, en esa ciudad, trabajan 150 000 personas para tratar la basura que llega, principalmente, de EE. UU., Canadá, Japón y Corea del Sur.

Otro gigantesco punto para verter RAEE está localizado en Ghana, África, que emplea indirectamente a unas 30 000 personas y aporta por año entre 105 y 268 millones de dólares al país. Esta nación africana importa alrededor de 215.000 toneladas cada año. Muestras de contaminación tomadas en los suelos determinan niveles muy altos de concentración de metales pesados, como plomo, cobre o mercurio.

La ONU estima que el 80 % de la basura tecnológica generada en todo el mundo se exporta a países tercermundistas, donde no existe ninguna regulación.

El E- waste en América Latina

América Latina produjo el 9% de los residuos electrónicos (e-waste) del mundo, durante 2014. Esto equivale a 3.900 kilotones (kt), según los datos del nuevo informe de la GSMA y el Instituto para el Estudio Avanzado de la Sostenibilidad de la Universidad de Naciones Unidas.

El estudio titulado “E- waste en América Latina: Análisis estadístico y recomendaciones de política pública”, revela que, en los próximos cuatro años, el E-waste generado en la región, crecerá entre un 5% y un 7% anual, alcanzando casi 4.800 kilotones o kilotoneladas para 2018.

El reporte, asimismo, identifica los desafíos principales en la gestión de los desechos electrónicos en América Latina, centrándose en particular en las oportunidades para la recolección y el reciclaje de teléfonos móviles.

El promedio de e-waste generado en América Latina durante 2014, fue de 6,6 kg por persona, de los cuales apenas 29 g provienen de teléfonos móviles. Esto equivale a unos 0,3 teléfonos móviles desechados por persona en el año.

Se trata de un crecimiento de 70% respecto a 2009, mientras que, a nivel global, se espera un crecimiento de sólo 55%. En América Latina la tasa de crecimiento anual esperada se reducirá del 7% en 2012 al 5% en 2018.

Los desafíos de la gestión del E-waste

Diversos elementos fundamentales deben ser considerados al analizar los desafíos de la gestión del E-waste: los desechos electrónicos a menudo contienen materiales considerados tóxicos, que son potencialmente perjudiciales para el medio ambiente y la salud de las personas.

Esto también puede afectar la vida de los niños en muchos países, ya que pueden estar expuestos a agentes químicos derivados del reciclaje clandestino de e-waste –una actividad que se realiza cotidianamente, incluso en viviendas, ya sea por los padres o por los propios niños. Los niños también pueden estar expuestos a través de vertederos ubicados cerca de sus hogares, escuelas y áreas de juego.

Una alternativa es extender la vida útil de los equipos electrónicos, desde una perspectiva del ciclo de vida, en algunos productos. Esto reduce la huella ecológica, a través de una menor producción y facilita la disponibilidad de bienes para los segmentos de la población que no pueden acceder a los últimos modelos.

Sólo unos pocos países de América Latina tienen proyectos de ley específicos sobre la gestión de los desechos electrónicos. En la mayoría de los casos, la gestión de los residuos electrónicos está regulada en la legislación general de residuos peligrosos. Actualmente se debaten políticas públicas específicas o directrices técnicas, que aún deben pasar por el proceso legislativo o ser implementadas.

Desde una perspectiva estratégica, el  informe de la GSMA y el Instituto para el Estudio Avanzado de la Sostenibilidad de la Universidad de ONU,  hay principios fundamentales deben guiar el desarrollo de las políticas públicas de desechos electrónicos y abordar la recolección y el tratamiento de teléfonos móviles, en particular:

1)    Las autoridades públicas deben crear campañas de concientización adecuadas y específicas. Para ello deben contar con el apoyo de fabricantes, proveedores de servicios, minoristas y municipios. Y

2)     Asimismo, informar a los consumidores acerca del rol fundamental que tienen en la cadena de reciclaje: los aparatos que quedan en la casa, incluso cuando no se utilizan, bloquean recursos provenientes de los procesos de reciclaje. Además la eliminación inadecuada de desechos electrónicos (sobre todo teléfonos móviles) junto con otros desperdicios sin clasificar puede impedir para siempre la recuperación de materiales críticos.

3)    Uno de los elementos principales para garantizar el acceso futuro a metales clave es facilitar la eficacia en la cadena de reciclaje, para producir productos y funcionalidades.

El E- waste en Colombia y su tratamiento legislativo

Colombia publicó una regulación específica sobre residuos electrónicos basada en REP en 2013, pero el proceso legislativo aún está en curso y se espera que termine pronto.

El proyecto de ley se complementa con regulaciones existentes sobre lámparas y baterías. Se están estableciendo esquemas de cumplimiento para la gestión de determinados flujos de residuos electrónicos (principalmente de PC y periféricos, lámparas y baterías) para garantizar la gestión de los desechos electrónicos en todo el país.

La infraestructura de reciclaje utiliza principalmente desmontaje manual para fases de preprocesamiento y posterior exportación del procesamiento final de fracciones críticas.

Desde Ecos sugerimos tener en cuenta la problemática a futuro del E-waste, tomando en consideración las estadísticas disponibles, a los fines de generar no sólo una legislación que aborde el desafío del manejo de estos desechos tecnológicos, sino el desarrollo de una política pública del uso progresivo de estos aparatos, como estrategia inclusiva de penetración de las TIC.

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Fotos: Hannover Messe News.- Con un invitado de lujo y más de 5.000 expositores y un cuarto de millón de visitantes, que abarrotaron los pabellones del recinto Ferial de Hannover durante toda la semana, se realizó la mayor feria de tecnología industrial del mundo: Hannover Messe.

La Feria de Hannover comenzó en 1947 en un edificio de una fábrica en Laatzen, al sur de Hannover, mediante un arreglo con el gobierno militar británico, con el objetivo de impulsar el avance económico durante la posguerra.

Debido a su éxito, la feria se repitió de ahí en adelante cada año, contribuyendo grandemente al éxito de la plaza de Ferias y remplazando a la ciudad de Leipzig, en Alemania Oriental, como la principal ciudad de ferias.

En 1980, el crecimiento de la industria de la información y las telecomunicaciones obligó a los organizadores, Deutsche Messe AG a dividirla dando como resultado la CeBIT.

El evento no tiene el atractivo de otras citas tecnológicas del año, porque está enfocado sobre todo a la maquinaria pesada y la industria de la robótica, pero sus cifras son la envidia del sector.

Por primera vez, en los 70 años que se lleva celebrando la feria, EEUU fue elegido como país invitado pero es también una oportunidad para dar impulso a una feria que, en los últimos años, y a consecuencia del impacto de la crisis económica en el sector industrial, estaba perdiendo relevancia.

Los organizadores apuntaron que la mayor economía del mundo está liderando un proceso de reindustralización en el que los datos, la energía limpia y sobre todo la robótica tendrán un papel protagonista.

La automatización fue de hecho una de las claves de la septuagésima edición de la feria, que se celebró bajo el impulso de la llamada Internet Industrial de las Cosas o IIoT.

Es una adaptación del concepto de Internet de los objetos al mundo de la fabricación y con el que las grandes industrias esperan mejorar la eficiencia de los procesos de trabajo y automatizar muchos de los pasos que, hoy todavía, tienen que ser supervisados por personas.

Armados con mejores sensores y permanentemente conectados entre sí, los diferentes componentes de una cadena de producción serán capaces de comunicarse, descubrir fallos y corregirlos en mucho menos tiempo.

Desde Ecos invitamos a nuestros lectores a explorar la website de la Feria de Hannover para observar las tendencias industriales del futuro, ya muy cercano: http://www.hannovermesse.de/

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Imagen Pungolo.org. - Una de las preocupaciones fundamentales de la clase política de América Latina debería ser reducir la brecha digital. Es imposible lograr competitividad, desarrollo sustentable e innovación si los ciudadanos de un país no sólo no tienen acceso de internet de calidad, sino son incapaces de manejar adecuada y eficazmente los dispositivos informáticos.

Ese desarrollo desordenado hace que las posibilidades de ser más efectivos e innovadores sean remotas. Un celular, hoy en día, es un centro de operaciones informáticas, más aún con la disponibilidad de las miles de aplicaciones, en gran número gratuitas, que se cuentan en los servicios asociados al software libre.

El analfabetismo digital es una condición que hace referencia a la incapacidad de manejar nuevas tecnologías, bien sea por falta de conocimiento, ignorancia o exclusión, y éste, muchas veces, no constituye en sí mismo un problema, que pueda detectarse inmediatamente en las personas e incluso en las organizaciones.

Y este desencuentro con lo digital resta posibilidades profesionales y académicas y hace que las personas no puedan acceder a las posibilidades de interactuar con las nuevas tecnologías, es decir, navegar en la web, disfrutar de contenidos multimedia, sociabilizar mediante las redes sociales, crear documentación, etc y ahorrar tiempo, organizarse y estar comunicado.

Un estudio de la Comisión Europea detectó que en países como Italia, Grecia, Bulgaria y Rumania, el 40% o más de su población persisten en el analfabetismo digital, a los que se suman Portugal o Lituania, donde la mayoría de su población no tiene competencias en este campo. La cifra alcanza en total a 11 de los 28 países que conforman la UE, en donde existen grandes posibilidades de que esa realidad les disminuya su fuerza competitiva en muchas áreas, sobre todo la industrial.

Y es que países como Reino Unido, Alemania y la propia Italia, son los que más demanda de empleos digitales tendrán en los próximos años, lo que implica que habrá un número importante de puestos de trabajo, entre 2015 y 2020, que podrían quedarse sin ser ocupados o tendrían que ser buscados en otros países o continentes.

El analfabetismo informático es la principal causa de la brecha digital y es una situación grave de desigualdad, en un mayor número de contextos y ámbitos, porque este tipo de analfabetismo, no es únicamente la incapacidad sociotécnica de generar información, interactuar con los dispositivos y proteger los sistemas, sino es no poder tener acceso democrático a la gama de posibilidades que los recursos digitales proporcionan para involucrarse, participar e intervenir en la vida pública.

A diferencia de los que piensen ciertos cultores de la democracia cavernícola, una de las mayores revoluciones democráticas ha sido la lucha por el internet abierto y los desarrollos informáticos en software libre, porque han incentivado la búsqueda de conocimientos, el acceso a la información en lugares remotos, donde aún ni la ancestral radio llega, y al desarrollo de la creatividad innovadora.

La Organización de Naciones Unidas (ONU) ha calificado el acceso libre a internet como uno de los DDHH inalienables. Como lo subraya Frank La Rue,  relator especial de la ONU sobre promoción y protección del derecho de libertad de opinión y expresión "internet es un instrumento insustituible en la realización de una serie de DDHH, en la lucha contra la desigualdad".

De este modo la desconexión centralizada de la red se considera ahora una infracción de los derechos civiles y el acceso a la red se equipará hoy con el derecho a la libertad de expresión.

Desde 2011 La Rue califica el valor de internet "como uno de los más poderosos instrumentos del siglo XXI que sirve para facilitar la transparencia de los actos hechos por los poderosos, recibir la información y aumentar la participación activa de los ciudadanos en la construcción de sociedades democráticas".

En su informe, investigó y evaluó las nuevas tecnologías en relación con la libertad de opinión y expresión por indicación del Consejo de Derechos Humanos de la ONU. El resultado de sus trabajos ha sido el informe de 22 páginas que continúa la directiva del Parlamento Europeo de 2008, en la que se recomendó con insistencia a los países evitar cualquier método que contradice a las libertades civiles y DDHH.

El documento subraya que varios estados "limitan, manipulan y censuran" la información que se difunde en la red sin tener ningún derecho para esto.

Los expertos de la ONU se manifestaron también en contra de la "desconexión" del pueblo de la red, argumentado a menudo como un acto de lucha contra la piratería, como por ejemplo se hace en Francia.

La veracidad de las afirmaciones del Informe de La Rue no esperaron, no requirieron mucho tiempo para verificarse. Los neototalitarismos de América del Sur, que han silenciado a la prensa independiente, con la disponibilidad al papel y la persecución de los periodistas, también han intervenido el acceso a los contenidos y estado online de portales no afines o críticos, incentivando el desarrollo de medios públicos de escasa independencia y de corte propagandístico de sus gestiones.

En este sentido, el gran desafío de la Agenda Política es utilizar las nuevas tecnologías y acceder y usar internet más allá de la dimensión individual y lograr una Cultura Informática Democrática, que se autoregule y propicie que la información y el conocimiento llegue a todos, como indicador de calidad de vida.

La Equidad Digital deberá ser una de las expectativas del ciudadano, una propuesta electoral y su establecimiento, tutelada por el Gobierno correspondiente, desarrollará principios de igualdad en la accesibilidad a productos y servicios digitales, con objetivo de superar la brecha digital existente entre las personas que tienen conocimientos digitales y los aplican a su vida diaria y las que son declaradas analfabetas digitales, con independencia de su condición social.

Desde Ecos aupamos el manejo de este poderosísimo recurso para democratizar desde la vida cotidiana hasta el desarrollo de las naciones.

 

 

 

 

 

 

 

 

 

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt*.- Como bien lo expresa Massimiliano Fuksas, Lighting Designer, la luz es una de las certezas de la arquitectura. Y ciertamente, es un factor de éxito o de fracaso en el diseño y desarrollo de las obras.

Cuando hablamos de luz, en términos de efectividad energética, un término hoy muy cotizado en las agendas políticas, estamos hablando de un recurso de primer orden, no sólo por ser costoso, sino porque ha tenido el impacto de la imprevisión y la decidía de los gobiernos, en su generación y mantenimiento como energía.

Pero la luz no sólo es la artificial, producto de luminarias, bombillos o sistemas integrados. La luz también es la natural y puede existir un uso equilibrado y simultáneo de los dos tipos de iluminación.

Un diseño de edificio pensado para aprovechar la trayectoria del Sol, accesorios que reflejen y distribuyan la luz del día y un sistema artificial sensible que también pueda atenuarse, es una opción energética sostenible y ecológica, sobre todo en tiempos de racionamiento eléctrico.

La iluminación natural tiene el potencial de proporcionar importantes ahorros de costos. La iluminación eléctrica representa el 35% al 50% del consumo total de energía eléctrica en edificios comerciales. Mediante la generación de calor residual, la iluminación también añade una suma a las cargas de los equipos de refrigeración.

El ahorro de energía mediante la utilización de estrategias de luz natural puede reducir directamente la energía que se usa para enfriar en un 10% o 20% adicional.

En consecuencia, para muchos edificios gubernamentales  institucionales y comerciales, los costos totales de energía se pueden reducir hasta un tercio a través de la óptima integración de estrategias de iluminación natural.

Pero los beneficios de un edificio con luz natural se extienden más allá del ahorro de energía. Por ejemplo, mediante la reducción de la necesidad de consumo eléctrico para iluminación y refrigeración, el uso de la luz del día reduce gases de efecto invernadero y hace que el agotamiento de combustibles fósiles sea más lento.

Numerosos estudios también indican que la luz del día puede aumentar la productividad de los colaboradores de una empresa y acortar las permanencias de los pacientes en habitaciones de hospitales.

En este sentido, sería importante, sobre todo a nivel gubernamental, integrar un equipo interdisciplinario para desarrollar el uso de la luz natural como estrategia de ahorro energético y de preservación del medio ambiente, donde se integre la perspectiva profesional de psicólogos, ecólogos, sociólogos, arquitectos, ingenieros y lighting designer para examinar el uso de la luz artificial existente y las posibilidades de uso de la luz natural, a los fines de generar proyectos que tomen en cuenta el clima, el ahorro energético y la experiencia lumínica que se pretende lograr en el usuario, sea este operario, oficinista, maestro, alumno o ama de casa, entre otros.

Y por este camino, proponer la integración muy pertinente entre la luz natural y la iluminación artificial en obras públicas y grandes construcciones como aeropuertos, teatros, campus universitarios, hospitales e incluso vías.

La luz natural no sólo está relacionada con la experiencia visual de la forma y el espacio, sino que también está conectada con características térmicas. La luz, calor y confort, que son factores clave cuando se determina el consumo energético; si se manipulan y controlan correctamente, disminuirá la dependencia a los sistemas artificiales.

Desde Ecos aupamos una iniciativa que apunte a tener ambientes y espacios más saludables, cálidos y ecológicos.

*CEO Arquiluz.

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt.- La Tecnología es uno de los caminos más pródigos y próximos a la democratización y la conservación del medio ambiente. Es fascinante observar la creatividad. con rostro humano y ecológico. de las novísimas búsquedas tecnológicas. Lo que hace palpable un futuro más viable, menos conflictivo y más comprometido con las causas de la conservación y la preservación del patrimonio ecológico.

Un equipo de ingenieros peruanos, Tierra Nuestra, liderados por Jorge Gutiérrez, ingeniero ambiental, luego de 9 años de trabajo, ha desarrollado un sistema denominado PAU-20, con el que se pueden purificar 200.000 metros cúbicos de aire al día, es decir, la cantidad diaria de aire que respiran 20.000 personas.

Los contaminantes del aire quedan fijados en agua mediante un proceso que produce aire limpio. El depurador, conocido como superárbol, proporciona asimismo valiosa información sobre la contaminación biológica ambiental y es capaz de fijar al día tanto CO2 como una hectárea de eucaliptos. Su objetivo es disminuir la cantidad de aire contaminado, producido, en gran medida, por el parque automotor.

El aparato tiene un tamaño de cinco metros de alto por tres metros de ancho, pesa 1.200 kilogramos y precisa de 60 litros de agua para la destilación del aire contaminado. El aire y el agua, bajo condiciones termodinámicas adecuadas, logran equilibrar su entalpía (proceso de absorción termodinámico), produciendo la fijación de los contaminantes del aire en el agua en un proceso continuo.

Jorge Gutiérrez, participó y fue con uno de los 10 mejores proyectos, a nivel de América Latina, en el Concurso “Ideas para construir la Historia” del canal de televisión History Channel en 2014.

EL prototipo del purificador PAU-20 se ha erigido en el exterior del Ministerio de Producción de Lima, donde ha sido visitado, según Gutiérrez, por escolares y autoridades. "No sólo de Perú, sino también de Estados Unidos, Colombia, Venezuela, Chile, Corea, e incluso personalidades procedentes de París y Madrid", añadió el ingeniero.

Su funcionamiento es simple, reproduce "determinados procesos que se realizan de forma natural en la naturaleza, procesos termodinámicos, de presión, enfriamiento", es decir, la máquina recoge aire contaminado y lo devuelve limpio, explicó Gutiérrez. Todo el proceso por un costo de tres dólares diarios.

El Superárbol es capaz de purificar, eliminando polvo, gérmenes y bacterias, un volumen de aire de 8.334 metros cúbicos por hora, hasta llegar a los 200.000 metros cúbicos diarios, aseguran los ingenieros de Tierra Nuestra.

El creador del "superárbol", el Ing. Gutiérrez, afirmó que en otros países ya se han desarrollado proyectos similares, pero que todos resultaban inviables por su alto coste.

"Las máquinas desarrolladas en México o Chile proponían un consumo de entre 48 y 68 kilovatios por hora y un mantenimiento continuo, mientras que nosotros apenas utilizamos 2,5 kilovatios (el equivalente a 25 bombillas de 100 vatios) y alrededor de 60 litros de agua cada cinco horas", detalló el miembro de Nuestra Tierra.

En cuanto al coste de instalación, el objetivo es lograr que empresas con interés en labores de responsabilidad social se apunten como patrocinadores y que los purificadores de aire no supongan un coste para los municipios peruanos.

Aunque el proyecto ha sido especialmente desarrollado para la contaminada capital del país andino, rodeada de cerros de arena y donde nunca llueve, el objetivo es exportar los purificadores de aire. "La idea es llevarlo a la mayor cantidad de países que tengan este problema y poder trabajar a escala mundial para mejorar la salud de las personas", aseguró Gutiérrez.

El PAU-20 también fue admitido como candidato a los Rolex Award for Enterprise, un galardón internacional que premia proyectos innovadores.

Para Gutiérrez, el "superárbol" permitirá mitigar los problemas que acarrea la contaminación, pero matiza que su principal función será la de concientizar a la población: "la única solución real y definitiva es que las personas se sensibilicen y dejemos de utilizar combustibles fósiles".

Gutiérrez ha sido enfático al afirmar que "debemos tomar conciencia de que la salud es un bien tremendamente necesario para la vida (...) y cada miembro de la sociedad debe protegerse de la contaminación y por ello es necesario poner todo nuestro ingenio para resolverlo".

Desde Ecos, felicitamos esta iniciativa e invitamos a las empresas a invertir sus cuotas de responsabilidad social empresarial (RSE) en estas soluciones tecnológicas para tener ciudades sin contaminación y, por ende, ambientes más ecológicamente sostenidos. En Medellín, ya existen 2 árboles purificadores.

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt*.- En tiempos de imprevisiones y apagones, siempre la Tecnología tiene un abanico de herramientas y alternativas para solucionar angustiantes crisis y contribuir a la golpeada vida de los ciudadanos.

Una de esas alternativas es el uso del LED, el Light Emitting Diode, el diodo optoelectrónico emisor de luz, quien tiene más de 50 años presente en los mecanismos de control y en muchos dispositivos electrónicos, como semáforos y señalizadores y, hoy en día, es una alternativa lumínica.

Gracias a la búsqueda de sistemas más eficaces, en términos de incidencia energética y ahorro de energía, en los últimos 15 años el cincuentón LED se ha tornado en objeto de investigación continua y opción de innovación para los lighting designer y para el uso público, no sólo como alternativa para el paisajismo y la iluminación comercial, sino para su integración a la iluminación utilitaria de sitios públicos.

Pero, ¿Qué es el LED? En primer lugar, a diferencia de los otros sistemas de iluminación, el LED es un diodo, compuesto por la superposición de varias capas de material semiconductor, que emite luz en una o más longitudes de onda (colores), cuando es polarizado correctamente. En otras, palabras, el Led es un dispositivo que permite el paso de la corriente en una única dirección.

En segundo lugar, es un dispositivo lumínico que destaca por su considerable ahorro energético, arranque instantáneo, aguante a los encendidos y apagados continuos y mayor vida útil.

Son eficientes energéticamente, porque como los expresan los expertos, el LED no requiere de la gestión de otros aparatos internos como los otros sistemas lumínicos, lo cual determina su incidencia, como dispositivos que pueden ser utilizados en obras civiles y gubernamentales, como el alumbrado público, ya que, aunque sus costos iniciales son más altos que los de otros sistemas lumínicos, como el sodio, el metal halide y los fluorescentes, esta inversión significa, a corto y mediano plazo, ahorro y eficiencia sin reposición de componentes accesorios.

Y, en tercer lugar, el LED aparte de tener mayor tiempo de vida y consumir menos energía, posee mayor resistencia a las vibraciones, reducida emisión de calor, no contiene mercurio (altamente nocivo y contaminante), no crea campos magnéticos, reduce ruidos en las líneas eléctricas, son especiales para utilizarse con sistemas fotovoltaicos, en comparación con cualquier otra tecnología actual; asimismo, a los Leds no les afecta el encendido y son especiales para sistemas antiexplosión, por ser elaborados con materiales resistentes.

Por su novísimo uso como sistema de iluminación, poco se sabe aún de su impacto ambiental y en la salud de los seres vivos, aun cuando algunas investigaciones recientes apuntan a recomendar el control de la contaminación lumínica de los ledes azules, porque pueden ser dañinos a la vista.

De seguro sus productores en China y las transnacionales como Osram (Siemens) que los diseñan están a la vanguardia de estudiar los impactos del LED, sobre todo por su reciclaje y posterior destrucción.

En función a lo hoy expuesto, Ecos sugiere a los gobiernos y, en especial, a la administración actual de Colombia, la consideración de invertir en esta tecnología LED, ya que, como dicen los expertos, los grandes demandantes del servicio eléctrico, como los puertos y aeropuertos, la vialidad urbana (autopistas, túneles, puentes, etc) , los centros de salud, las instituciones de vigilancia y orden público, las instalaciones industriales, entre otras, que requieren el uso continuo de luz, por sus características y funciones, pueden usar en sus luminarias LEDs y reducir el consumo sin dejar de ser eficaces y sin  afectar el consumo doméstico,  donde la adquisición de estos dispositivos es casi imposible por sus altos costos.

Si se usa Led, el ahorro energético y la eficiencia serán realidad.

Arquiluz CEO @hagaselaluz

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Foto: Dennis Kleiman.- Durante las Olimpiadas de Londres, los que adoramos el atletismo, observamos a un corredor en la línea de salida de los 400 metros, con sus prótesis de carbono, en una competencia convencional no paraolímpica, sentimos que un profundo avance se había suscitado en el escenario social, la discapacidad era superable.

Ese corredor, Oscar Pistorius, lidiaba con otro problema: la Federación Internacional de Atletismo (IAAF), desde hacía 4 años, no estaba de acuerdo que compitiese, debido a que diversos estudios aseguraban que sus prótesis le daban ventaja sobre cualquier competidor.

Un equipo de científicos dirigidos por el doctor Peter Brüggemann, de la Universidad de Colonia, había determinado, en 2007, que sus prótesis le daban ventaja sobre el resto de atletas, porque le impulsaban extraordinariamente, en cuanto adquiría cierta velocidad, actuando como una especie de muelles y le ahorraban un gasto de energía de hasta un 25%.

Esta fabulosa ventaja tenía un artífice, el escalador, ingeniero y biofísico Hugh Herr, hoy ganador del Premio Princesa de Asturias de Ciencia y Tecnología. E incluso logró su fichaje para Londres.

Herr (Lancaster, 1964), experto en Biomecánica del Instituto Tecnológico de Massachusetts, ha sido galardonado por crear las prótesis más sofisticadas del mundo. Obras maestras de la ingeniería que mezclan mecánica con sensores y que, según él mismo explicaba “cerrarán la brecha entre discapacidad y capacidad”.

El artífice también vivió la discapacidad

La historia de Herr es, incluso, más dramática que la de Pistorius. En 1982 era considerado uno de los mejores alpinistas jóvenes de EEUU, cuando durante una escalada en el Monte Washington, una enorme ventisca atrapó a su expedición. Fruto de la congelación, sus dos piernas tuvieron que ser amputadas. Ahí empezó su carrera por volver a subir montañas justo en el punto donde lo había dejado.

La adversidad le motivó a centrarse en sus estudios y tras especializarse en ingeniería mecánica, comenzó a elaborar prototipos de lo que hoy son las piernas biónicas sobre las que camina y que le han permitido volver a escalar con regularidad.

Ahora, tras años de estudio, Herr ha desarrollado más de 50 patentes de prótesis inteligentes. “A través de la innovación tecnológica, regresé a mi deporte más fuerte y mejor; y entonces comencé a imaginar un futuro donde la tecnología estaría tan avanzada, que podría librar al mundo de la discapacidad”, explica el ingeniero.

Actualmente, es profesor asociado en el Programa de Arte y Ciencias del MIT, y en la División Ciencias de la Salud y Tecnología de Harvar- MIT. Como líder del grupo de investigación en el área de Biomecatrónica en el MIT Media Lab, se enfoca en el desarrollo de sistemas robóticos que aumenten la capacidad física humana. La mayoría de sus diseños son para personas con dificultades y situaciones similares a las suyas.

Herr ha publicado más de 60 documentos peer-reviewed en el área de rehabilitación y es titular (o cotitular) de más de 10 patentes, 4 relacionadas con dispositivos de asistencia, incluyendo rodillas artificiales controladas por computadora, 5 disponible en el mercado como Rheo Knee, 6 una órtosis activa de tobillo y pie y la primera prótesis electrónica de tobillo-pie en el mundo.

Todo esto está provocando un avance en el relativamente nuevo campo de la ingeniería biónica que, por medio de principios en biomecánica y control neural, marca la pauta para el diseño en dispositivos en el área de rehabilitación y mejora de capacidades motrices. La meta es lograr rehabilitar completamente a pacientes que han sufrido amputaciones, así como aumentar capacidades físicas de aquellos con fisiología intacta.

En una entrevista realizada por Javier Anzorena, del diario ABC de España, Herr planteó que estamos llegando a la Era Biónica, porque “Se está produciendo una fusión de campos clave relacionados con la biónica, como el aprendizaje de las máquinas, la ingeniería de tejidos o la robótica. Todas están convergiendo en este momento de la historia”.

En este sentido, este biofísico del MIT es enfático en afirmar que “estamos en la edad en la que comenzamos a ver la integración de la tecnología en el cuerpo humano. Esos diseños son más que herramientas. Cuando implantamos una de nuestras piernas biónicas en los pacientes una reacción habitual es que digan “me han devuelto mi cuerpo, me han devuelto mi pierna”. Lo siento, pero cuando a alguien le das un martillo no piensa que le has devuelto su cuerpo”.

Cuando se le pregunta cuánto mejoraremos el cuerpo con esta tecnología Herr habla de lo que ya es posible: Nosotros fuimos los primeros en construir un exoesqueleto de una pierna para una persona que tenía todas sus extremidades, en 2014. Ya tenemos exoesqueletos que mejoran la capacidad humana. En los próximos años y décadas, veremos estructuras de este tipo con aplicaciones increíbles: nos permitirá correr más rápido, con menos gasto de energía, con menos desgaste de nuestro cuerpo… Es apasionante”.

Posibilidades biónicas que no sólo se usarán en la discapacidad, para reparar órganos o partes del cuerpo, sino cuando queramos mejorar nuestra capacidad. “Hay gente con una patología en una extremidad que quiere recuperar la normalidad. Y hay gente con una fisiología normal que quiere mejorar su capacidad con un exoesqueleto”, indica Herr.

Herr plantea, desde otra perspectiva, lo que significa el avance tecnológico, con todo un análisis proyectivo: “A medida que nos adentremos en el siglo XXI, nos preguntaremos una y otra vez qué significa ser humano. Si reemplazas las cuatro extremidades de un humano con máquinas, ¿es esa persona todavía humana? Este siglo tendrá que enfrentarse a cuestiones filosóficas muy interesantes sobre la naturaleza de lo humano”, señala.

Esperamos que Herr y otros científicos logren perfeccionar estas fabulosas invenciones para, no sólo hacer más inclusivas estas herramientas, en pos de una vida normal a los dispacitados, mejorar la capacidad humana ante el dolor y la vejez.

 

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Foto: Arctic Cable Company.- El gigante de las redes sociales Facebook y la compañía pionera en informática, Microsoft, se han aliado para desplegar un cable submarino de última generación, dirigido a unir sus centros de datos, a ambos lados del Atlántico, con la colaboración de la empresa española de telecomunicaciones Telefónica, informaron las gigantes tecnológicas.

El nuevo cable submarino unirá Virginia Beach (Virginia) con la localidad vizcaína de Sopelana (Bilbao, España), con el objetivo de acelerar las comunicaciones de centros de datos y servidores de los dos gigantes tecnológicos, a ambos lados del océano Atlántico.

160 terabits por segundo

El proyecto ha sido bautizado como "Marea" y tendrá la capacidad de transmitir 160 terabits por segundo a través de los casi 6.600 kilómetros de largo que tendrá esta construcción,  16 millones de veces más veloz que una conexión de internet doméstica, lo que lo convierte en el cable transatlántico con la banda más ancha que existe. La infraestructura la gestionará la empresa Telxius Telecom, creada recientemente por Telefónica.

Con el crecimiento imparable de gigantes de internet como Facebook, estas empresas están buscando modos de controlar la infraestructura que utilizan para conectar sus centros de datos y operar de manera más eficiente.

El proyecto “Marea” tendrá un sistema de “infraestructura abierta”, lo que le permitirá funcionar con tecnologías de distintos fabricantes y gracias a esto tendrá costos más bajos en su desarrollo y además contará con un sistema de actualizaciones muchos más rápido y flexible.

El cable submarino se espera que esté operativo en octubre de 2017 y su tráfico dará prioridad a las necesidades de Facebook y Microsoft.

“Nueva generación de infraestructura de internet”

El gran número de cables de telecomunicaciones que unen ambas orillas del Atlántico se originan en Nueva York, pero "Marea" está ubicado más al sur, cerca del centro de datos que Facebook tiene en Rutherford (Carolina del Norte)

"El cable Marea ayudará a satisfacer la mayor demanda de alta velocidad y fiabilidad para la conexión en la nube y los servicios online de Facebook y Microsoft y sus clientes", informaron las empresas en un comunicado conjunto.

El objetivo de este innovador cable es crear la "nueva generación de infraestructura de internet". Microsoft utilizará este nuevo elemento para sus servicios en la nube, como los de la plataforma Azure, del dispositivo Xbox o de servicios como Skype u Office.

Facebook y Microsoft buscan reforzar la seguridad que ofrece el envió de datos y, además, mejorar sus servicios de almacenamiento en la nube. Generalmente todos los cables que se encuentran cruzando el Atlántico parten desde la ciudad de Nueva York, provocando que exista una mayor cantidad de estos y además se sature el sector. En el caso de Marea, este será instaurado desde más al sur para que así pueda ser más ancho y con esto permitir más conexiones de datos.

Finalmente, ambas empresas reiteran que este nuevo y moderno cable no solo les permitirá trabajar entre Estados Unidos y Europa, sino que también les proporcionará la posibilidad de enviar datos a otros lugares del mundo, como Asia, África y el Medio Oriente.

Write comment (0 Comments)

Por Felicia Saturno Hartt. Fotos: Memorial Sloan Kettering Cancer Center.- Para los escépticos y contradictores de la Tecnología, sobre todo de la Informática, el Proyecto del Memorial Sloan Kettering Cancer Center, un instituto estadounidense centrado en el tratamiento de esta enfermedad, liderado y cofundado por el ingeniero Paul May, no sólo les llegaría a asombrar, sino a conmover.

Paul May es el cofundador de un particular equipo multidisciplinar, que ha encontrado, en los miles de millones de datos que genera el hospital, la oportunidad para marcar la diferencia y usar el "big data" para combatir el cáncer, una de las principales causas de mortalidad en todo el mundo.

El Equipo de Productos, usa toda la información que se genera en el centro para desarrollar tecnología biomédica, es crear ‘software’ útil.

May es el responsable de identificar en qué proyectos van a trabajar y de asegurarse de que desarrollan ‘software’ de calidad. El equipo no se encarga únicamente de trabajar con análisis de datos, sino que programa herramientas que ponen el "big data" a trabajar para médicos e investigadores, intentando dar a los datos un uso real que pueda marcar la diferencia para los 130.000 pacientes que pasan cada año por el centro.

Un "software" inteligente para estudios clínicos

En la actualidad, el equipo está trabajando en proyectos relacionados con la investigación clínica y el ‘machine learning’, “enseñando” a su ‘software’ cómo entender los ensayos clínicos con un nivel de detalle sin precedentes. Ya han sido capaces de desarrollar un programa especializado que se ha implantado en el centro.

“Descubrimos que era posible pescar toda la información relativa a ensayos y extraer conjuntos muy precisos de términos médicos y de criterios de elegibilidad, de manera que se pudiera buscar, de forma automática, en qué ensayo encaja cada paciente”, concreta May.

Gracias a este trabajo, un doctor del hospital puede describir, en un lenguaje natural, las características de un paciente y el ordenador le mostrará, de forma automática, los estudios que más se corresponden con ese sujeto.

Esto implica que los médicos no tienen que conocer cada ensayo y estadística al detalle, ya que, según este experto, la respuesta está a una única búsqueda de distancia. “Queremos que los médicos puedan centrarse en su trabajo y en el tratamiento de los pacientes. Nosotros nos encargamos de la complejidad de trabajar con los datos entre bastidores”, afirma.

El salto de los datos a un nuevo nivel

El Ingeniero May trabajaba en el hospital cuando se dio cuenta de que podían crear herramientas concretas, que contribuyeran a cambiar el funcionamiento del centro. Los datos ya se habían convertido en pieza fundamental del instituto de la mano de Ari Caroline, Jefe de Análisis de Datos y líder del Departamento de Estrategia e Innovación, al que ahora pertenece el nuevo equipo de reciente creación y del que May ya formaba parte.

Caroline y su grupo habían descubierto que los registros en el hospital disminuían cuando los pacientes no se sentían financieramente seguros, demostrando que los enfermos tienen muy en cuenta los costes a la hora de someterse a un tratamiento.

En ese mismo sentido, un estudio posterior logró persuadir a algunas aseguradoras de que cubrir tratamientos de alta calidad al inicio de un cáncer podría ahorrarles mucho dinero a largo plazo.

En el contexto de la salud pública estadounidense, en el que la mayoría de los pacientes no pueden afrontar los costes médicos y en el que las aseguradoras intentan limitar al mínimo los servicios que cubren, los datos supusieron una pequeña pero relevante victoria. Aunque hubiera que apelar al factor económico para obtenerla.

Watson, el Diagnosticador de IBM

Este departamento fue también el encargado de  entrenar a Watson, el superordenador de IBM, para que fuera capaz de entender un caso de cáncer y que tratara de replicar el proceso de decisiones usado por los doctores del centro, con el objetivo de desarrollar, en un futuro, herramientas que contribuyan al diagnóstico. 

Este era el sentido en el que quería trabajar Paul, que "había trabajado previamente en agencias de tecnología y de diseño y ya había entendido, hace tiempo, el valor que un equipo multidisciplinar podría aportarle a un lugar como el Memorial Sloan Kettering Cancer Center”.

Así que, junto con Alex Grigorenko -encargado ahora de los científicos de datos- y Bobby Genalo -en la actualidad diseñador de concepto-, se puso manos a la obra y diseñó prototipos que empleaban el aprendizaje automático. Consiguieron el apoyo de Ari Caroline, se convirtieron en un equipo oficial en septiembre de 2015 y empezaron a trabajar en problemas cada vez más avanzados.

En la actualidad el equipo está formado por ocho personas: tres científicos de datos, tres ingenieros de ‘software’, un diseñador y Paul May, el jefe del equipo. En los próximos meses serán once y esperan ampliar de nuevo la plantilla antes de que acabe 2016.

Para explicar el impacto de su trabajo, los miembros del equipo  suelen referirse a "Moneyball", la novela de Michael Lewis que se convirtió en película en 2011 con Brad Pitt como protagonista.  En la historia, Billy Beane es el gerente general del  Oakland Athletics y consigue relanzar a este equipo de béisbol con la ayuda de un economista, utilizando los datos para fichar a los mejores jugadores. Un método que, aunque criticado en un principio, revolucionó el béisbol profesional. Ellos aspiran a ser los Billy Beane del sistema médico, usando la estadística para lograr más victorias contra el cáncer.

Datos para cambiar el mundo

En su día a día, el equipo trabaja con médicos e investigadores para encontrar la forma en que los datos puedan ser más útiles, fluidos y visuales. “Tendría que ser posible que un investigador tuvieran una corazonada y la pudiera validar en un segundo. Los datos son un material bruto muy valioso, así que queremos que sean lo más útiles posible, de forma que los médicos e investigadores puedan innovar tan rápidamente como su imaginación se lo permita”, concreta May.

Intentan desarrollar programas accesibles e intuitivos a los que investigadores y médicos puedan adaptarse fácilmente. De momento, y según el experto, la aceptación por parte del equipo del centro es muy buena. Se muestran además muy dispuestos a ayudarles y a proporcionarles información que pueda ayudar en la creación de nuevos algoritmos.

Más allá de las pequeñas trabas que puedan derivarse de la burocracia, buscar empleados competentes es la parte más compleja del trabajo de Paul May. “Es complicado encontrar a gente con verdadero talento que pueda ayudar con nuestro trabajo: ingenieros de ‘software’, científicos de datos y diseñadores están altamente demandados en Nueva York.”

“Pero creo que tenemos un trabajo realmente emocionante que ofrecer, un trabajo que tiene impacto real, así que tengo confianza en que el equipo seguirá creciendo y en que conseguiremos grandes avances en el futuro”, defiende May.

Enterrada entre los millones de datos que el hospital procesa cada día, hay información muy valiosa con detalles únicos que, bien interpretados, pueden ser vitales para mejorar los tratamientos. El plan de este equipo de guerreros del "big data" es sacarla a la superficie y apuntarse cada vez más éxitos en la lucha contra la enfermedad.

“El hospital maneja una cantidad enorme de datos: millones de imágenes, resultados de laboratorio, perfiles genéticos y piezas de texto son generados cada mes. Y solo estamos arañando la superficie de las posibilidades de todos ellos”, sentencia May.

Write comment (0 Comments)

Por Felicia Saturno Hartt.-  Hasta el 8 de junio se encuentra abierta la convocatoria de INTALENT, la competencia que reconoce el talento innovador de base tecnológica y el desarrollo de la Economía Naranja en América Latina y el Caribe.

El objetivo es identificar, especialmente, emprendimientos que logren un impacto en el comercio y la integración regional profundizando las relaciones de intercambio entre los distintos mercados de la región. Tendrán una consideración especial los proyectos innovadores de base tecnológica en las áreas definidas como prioritarias por los organizadores de la convocatoria.

La Competencia Regional Intalent es promovida por el Banco Interamericano de Desarrollo (BID), en conjunto con MIT Technology Review en español y evaluará los proyectos que se postulen, en las categorías de artes, audiovisuales, herencia cultural, nuevos medios, software y arquitectura con la característica primordial de generar impacto en el comercio e integración en América Latina y el Caribe.

Pueden participar emprendedores que tengan la nacionalidad de alguno de los 26 países prestatarios del BID y que hayan desarrollado un proyecto original de base tecnológica con potencial de generar un impacto en el comercio y la integración. Este proyecto debe estar asociado a una o varias de las áreas comprendidas dentro de la Economía Naranja.

La iniciativa, por medio del concurso, busca destacar proyectos con potencial de crear riqueza y que contribuyan a mejorar la calidad de vida de latinoamericanos y caribeños, a partir de sus logros en materia de propiedad intelectual.

El premio principal son 10 mil dólares y un viaje a EmTech, una Conferencia de Tecnologías Emergentes de MIT Technology Review en Boston, Estados Unidos. El segundo premio es un viaje a Washington para asistir al concurso Idear Soluciones, organizado por el BID, donde se reunirán las startups más innovadoras en las industrias creativas y culturales de la región.

Una categoría especial de INTALENT premia, con 2 mil dólares, una fotografía sobre el cambio climático regional.

INTAL y MIT Technology Review en español confeccionaron un comité de jueces integrados por expertos de distintas nacionalidades que actuarán como jurados. El panel incluye empresarios, tecnólogos e investigadores de diversas universidades. Las evaluaciones emitidas por este jurado serán utilizadas por la organización para la elección final de los ganadores.

Ecos invita a los creativos de Argentina, Bahamas, Barbados, Belice, Brasil, Bolivia, Colombia, Costa Rica, Chile, Guatemala, Ecuador, El Salvador, Guyana, Haití, Honduras, Jamaica, México, Nicaragua, Panamá, Paraguay, Perú, República Dominicana, Surinam, Trinidad y Tobago, Uruguay y Venezuela para que participen en el concurso.

Para más información pueden consultar la página web del concurso: http://www.intalentlatam.com/.

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Foto Cinaoggi.- Uno de los temas de agenda gubernamental e incluso parlamentaria que podría inspirar a los votantes, a corto y mediano plazo, es el desafío del E-waste, o reciclaje de equipos eléctricos y electrónicos, partes, piezas y demás objetos, de gran impacto medio ambiental y en seres vivos, la nueva basura del siglo XXI.

De acuerdo a la Organización para la Cooperación y el Desarrollo Económico (OCDE) un desecho electrónico o e-waste, es todo dispositivo alimentado por la energía eléctrica, cuya vida útil haya culminado.

En este sentido, la convención de Basilea, por su parte, define a la chatarra electrónica como todo equipo o componente electrónico, incapaz de cumplir la tarea para la que originariamente fueron inventados y producidos.

El gran reto de gobiernos y legisladores, a nivel mundial, ya que sólo Suecia, Dinamarca, Suiza y Bélgica, existe una cultura del e-waste  y procesos exitosos de recolección y reciclaje de basura electrónica, es no sólo definir con claridad el tratamiento de estos desechos según su naturaleza, impacto y posible beneficios, sino articular una política pública, sustentada en leyes socioambientales, que apunte más allá del vertedero electrónico, de tanto o más impacto ecológico que los vertederos tradicionales, cree conciencia del uso y genere incluso valor agregado.

Es desilusionante mencionar que las 50 millones de toneladas de desechos electrónicos que se generan anualmente, en gran medida, van dirigidos a los vertederos tradicionales, donde se mezcla con otras basuras y chatarras.

China posee el mayor vertedero del mundo de ese tipo, concretamente en la ciudad de Guiyu y se calcula que, en esa ciudad, trabajan 150 000 personas para tratar la basura que llega, principalmente, de EE. UU., Canadá, Japón y Corea del Sur.

Otro gigantesco punto para verter RAEE está localizado en Ghana, África, que emplea indirectamente a unas 30 000 personas y aporta por año entre 105 y 268 millones de dólares al país. Esta nación africana importa alrededor de 215.000 toneladas cada año. Muestras de contaminación tomadas en los suelos determinan niveles muy altos de concentración de metales pesados, como plomo, cobre o mercurio.

La ONU estima que el 80 % de la basura tecnológica generada en todo el mundo se exporta a países tercermundistas, donde no existe ninguna regulación.

El E- waste en América Latina

América Latina produjo el 9% de los residuos electrónicos (e-waste) del mundo, durante 2014. Esto equivale a 3.900 kilotones (kt), según los datos del nuevo informe de la GSMA y el Instituto para el Estudio Avanzado de la Sostenibilidad de la Universidad de Naciones Unidas.

El estudio titulado “E- waste en América Latina: Análisis estadístico y recomendaciones de política pública”, revela que, en los próximos cuatro años, el E-waste generado en la región, crecerá entre un 5% y un 7% anual, alcanzando casi 4.800 kilotones o kilotoneladas para 2018.

El reporte, asimismo, identifica los desafíos principales en la gestión de los desechos electrónicos en América Latina, centrándose en particular en las oportunidades para la recolección y el reciclaje de teléfonos móviles.

El promedio de e-waste generado en América Latina durante 2014, fue de 6,6 kg por persona, de los cuales apenas 29 g provienen de teléfonos móviles. Esto equivale a unos 0,3 teléfonos móviles desechados por persona en el año.

Se trata de un crecimiento de 70% respecto a 2009, mientras que, a nivel global, se espera un crecimiento de sólo 55%. En América Latina la tasa de crecimiento anual esperada se reducirá del 7% en 2012 al 5% en 2018.

Los desafíos de la gestión del E-waste

Diversos elementos fundamentales deben ser considerados al analizar los desafíos de la gestión del E-waste: los desechos electrónicos a menudo contienen materiales considerados tóxicos, que son potencialmente perjudiciales para el medio ambiente y la salud de las personas.

Esto también puede afectar la vida de los niños en muchos países, ya que pueden estar expuestos a agentes químicos derivados del reciclaje clandestino de e-waste –una actividad que se realiza cotidianamente, incluso en viviendas, ya sea por los padres o por los propios niños. Los niños también pueden estar expuestos a través de vertederos ubicados cerca de sus hogares, escuelas y áreas de juego.

Una alternativa es extender la vida útil de los equipos electrónicos, desde una perspectiva del ciclo de vida, en algunos productos. Esto reduce la huella ecológica, a través de una menor producción y facilita la disponibilidad de bienes para los segmentos de la población que no pueden acceder a los últimos modelos.

Sólo unos pocos países de América Latina tienen proyectos de ley específicos sobre la gestión de los desechos electrónicos. En la mayoría de los casos, la gestión de los residuos electrónicos está regulada en la legislación general de residuos peligrosos. Actualmente se debaten políticas públicas específicas o directrices técnicas, que aún deben pasar por el proceso legislativo o ser implementadas.

Desde una perspectiva estratégica, el  informe de la GSMA y el Instituto para el Estudio Avanzado de la Sostenibilidad de la Universidad de ONU,  hay principios fundamentales deben guiar el desarrollo de las políticas públicas de desechos electrónicos y abordar la recolección y el tratamiento de teléfonos móviles, en particular:

1)    Las autoridades públicas deben crear campañas de concientización adecuadas y específicas. Para ello deben contar con el apoyo de fabricantes, proveedores de servicios, minoristas y municipios. Y

2)     Asimismo, informar a los consumidores acerca del rol fundamental que tienen en la cadena de reciclaje: los aparatos que quedan en la casa, incluso cuando no se utilizan, bloquean recursos provenientes de los procesos de reciclaje. Además la eliminación inadecuada de desechos electrónicos (sobre todo teléfonos móviles) junto con otros desperdicios sin clasificar puede impedir para siempre la recuperación de materiales críticos.

3)    Uno de los elementos principales para garantizar el acceso futuro a metales clave es facilitar la eficacia en la cadena de reciclaje, para producir productos y funcionalidades.

El E- waste en Colombia y su tratamiento legislativo

Colombia publicó una regulación específica sobre residuos electrónicos basada en REP en 2013, pero el proceso legislativo aún está en curso y se espera que termine pronto.

El proyecto de ley se complementa con regulaciones existentes sobre lámparas y baterías. Se están estableciendo esquemas de cumplimiento para la gestión de determinados flujos de residuos electrónicos (principalmente de PC y periféricos, lámparas y baterías) para garantizar la gestión de los desechos electrónicos en todo el país.

La infraestructura de reciclaje utiliza principalmente desmontaje manual para fases de preprocesamiento y posterior exportación del procesamiento final de fracciones críticas.

Desde Ecos sugerimos tener en cuenta la problemática a futuro del E-waste, tomando en consideración las estadísticas disponibles, a los fines de generar no sólo una legislación que aborde el desafío del manejo de estos desechos tecnológicos, sino el desarrollo de una política pública del uso progresivo de estos aparatos, como estrategia inclusiva de penetración de las TIC.

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Fotos: Hannover Messe News.- Con un invitado de lujo y más de 5.000 expositores y un cuarto de millón de visitantes, que abarrotaron los pabellones del recinto Ferial de Hannover durante toda la semana, se realizó la mayor feria de tecnología industrial del mundo: Hannover Messe.

La Feria de Hannover comenzó en 1947 en un edificio de una fábrica en Laatzen, al sur de Hannover, mediante un arreglo con el gobierno militar británico, con el objetivo de impulsar el avance económico durante la posguerra.

Debido a su éxito, la feria se repitió de ahí en adelante cada año, contribuyendo grandemente al éxito de la plaza de Ferias y remplazando a la ciudad de Leipzig, en Alemania Oriental, como la principal ciudad de ferias.

En 1980, el crecimiento de la industria de la información y las telecomunicaciones obligó a los organizadores, Deutsche Messe AG a dividirla dando como resultado la CeBIT.

El evento no tiene el atractivo de otras citas tecnológicas del año, porque está enfocado sobre todo a la maquinaria pesada y la industria de la robótica, pero sus cifras son la envidia del sector.

Por primera vez, en los 70 años que se lleva celebrando la feria, EEUU fue elegido como país invitado pero es también una oportunidad para dar impulso a una feria que, en los últimos años, y a consecuencia del impacto de la crisis económica en el sector industrial, estaba perdiendo relevancia.

Los organizadores apuntaron que la mayor economía del mundo está liderando un proceso de reindustralización en el que los datos, la energía limpia y sobre todo la robótica tendrán un papel protagonista.

La automatización fue de hecho una de las claves de la septuagésima edición de la feria, que se celebró bajo el impulso de la llamada Internet Industrial de las Cosas o IIoT.

Es una adaptación del concepto de Internet de los objetos al mundo de la fabricación y con el que las grandes industrias esperan mejorar la eficiencia de los procesos de trabajo y automatizar muchos de los pasos que, hoy todavía, tienen que ser supervisados por personas.

Armados con mejores sensores y permanentemente conectados entre sí, los diferentes componentes de una cadena de producción serán capaces de comunicarse, descubrir fallos y corregirlos en mucho menos tiempo.

Desde Ecos invitamos a nuestros lectores a explorar la website de la Feria de Hannover para observar las tendencias industriales del futuro, ya muy cercano: http://www.hannovermesse.de/

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt. Imagen Pungolo.org. - Una de las preocupaciones fundamentales de la clase política de América Latina debería ser reducir la brecha digital. Es imposible lograr competitividad, desarrollo sustentable e innovación si los ciudadanos de un país no sólo no tienen acceso de internet de calidad, sino son incapaces de manejar adecuada y eficazmente los dispositivos informáticos.

Ese desarrollo desordenado hace que las posibilidades de ser más efectivos e innovadores sean remotas. Un celular, hoy en día, es un centro de operaciones informáticas, más aún con la disponibilidad de las miles de aplicaciones, en gran número gratuitas, que se cuentan en los servicios asociados al software libre.

El analfabetismo digital es una condición que hace referencia a la incapacidad de manejar nuevas tecnologías, bien sea por falta de conocimiento, ignorancia o exclusión, y éste, muchas veces, no constituye en sí mismo un problema, que pueda detectarse inmediatamente en las personas e incluso en las organizaciones.

Y este desencuentro con lo digital resta posibilidades profesionales y académicas y hace que las personas no puedan acceder a las posibilidades de interactuar con las nuevas tecnologías, es decir, navegar en la web, disfrutar de contenidos multimedia, sociabilizar mediante las redes sociales, crear documentación, etc y ahorrar tiempo, organizarse y estar comunicado.

Un estudio de la Comisión Europea detectó que en países como Italia, Grecia, Bulgaria y Rumania, el 40% o más de su población persisten en el analfabetismo digital, a los que se suman Portugal o Lituania, donde la mayoría de su población no tiene competencias en este campo. La cifra alcanza en total a 11 de los 28 países que conforman la UE, en donde existen grandes posibilidades de que esa realidad les disminuya su fuerza competitiva en muchas áreas, sobre todo la industrial.

Y es que países como Reino Unido, Alemania y la propia Italia, son los que más demanda de empleos digitales tendrán en los próximos años, lo que implica que habrá un número importante de puestos de trabajo, entre 2015 y 2020, que podrían quedarse sin ser ocupados o tendrían que ser buscados en otros países o continentes.

El analfabetismo informático es la principal causa de la brecha digital y es una situación grave de desigualdad, en un mayor número de contextos y ámbitos, porque este tipo de analfabetismo, no es únicamente la incapacidad sociotécnica de generar información, interactuar con los dispositivos y proteger los sistemas, sino es no poder tener acceso democrático a la gama de posibilidades que los recursos digitales proporcionan para involucrarse, participar e intervenir en la vida pública.

A diferencia de los que piensen ciertos cultores de la democracia cavernícola, una de las mayores revoluciones democráticas ha sido la lucha por el internet abierto y los desarrollos informáticos en software libre, porque han incentivado la búsqueda de conocimientos, el acceso a la información en lugares remotos, donde aún ni la ancestral radio llega, y al desarrollo de la creatividad innovadora.

La Organización de Naciones Unidas (ONU) ha calificado el acceso libre a internet como uno de los DDHH inalienables. Como lo subraya Frank La Rue,  relator especial de la ONU sobre promoción y protección del derecho de libertad de opinión y expresión "internet es un instrumento insustituible en la realización de una serie de DDHH, en la lucha contra la desigualdad".

De este modo la desconexión centralizada de la red se considera ahora una infracción de los derechos civiles y el acceso a la red se equipará hoy con el derecho a la libertad de expresión.

Desde 2011 La Rue califica el valor de internet "como uno de los más poderosos instrumentos del siglo XXI que sirve para facilitar la transparencia de los actos hechos por los poderosos, recibir la información y aumentar la participación activa de los ciudadanos en la construcción de sociedades democráticas".

En su informe, investigó y evaluó las nuevas tecnologías en relación con la libertad de opinión y expresión por indicación del Consejo de Derechos Humanos de la ONU. El resultado de sus trabajos ha sido el informe de 22 páginas que continúa la directiva del Parlamento Europeo de 2008, en la que se recomendó con insistencia a los países evitar cualquier método que contradice a las libertades civiles y DDHH.

El documento subraya que varios estados "limitan, manipulan y censuran" la información que se difunde en la red sin tener ningún derecho para esto.

Los expertos de la ONU se manifestaron también en contra de la "desconexión" del pueblo de la red, argumentado a menudo como un acto de lucha contra la piratería, como por ejemplo se hace en Francia.

La veracidad de las afirmaciones del Informe de La Rue no esperaron, no requirieron mucho tiempo para verificarse. Los neototalitarismos de América del Sur, que han silenciado a la prensa independiente, con la disponibilidad al papel y la persecución de los periodistas, también han intervenido el acceso a los contenidos y estado online de portales no afines o críticos, incentivando el desarrollo de medios públicos de escasa independencia y de corte propagandístico de sus gestiones.

En este sentido, el gran desafío de la Agenda Política es utilizar las nuevas tecnologías y acceder y usar internet más allá de la dimensión individual y lograr una Cultura Informática Democrática, que se autoregule y propicie que la información y el conocimiento llegue a todos, como indicador de calidad de vida.

La Equidad Digital deberá ser una de las expectativas del ciudadano, una propuesta electoral y su establecimiento, tutelada por el Gobierno correspondiente, desarrollará principios de igualdad en la accesibilidad a productos y servicios digitales, con objetivo de superar la brecha digital existente entre las personas que tienen conocimientos digitales y los aplican a su vida diaria y las que son declaradas analfabetas digitales, con independencia de su condición social.

Desde Ecos aupamos el manejo de este poderosísimo recurso para democratizar desde la vida cotidiana hasta el desarrollo de las naciones.

 

 

 

 

 

 

 

 

 

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt*.- Como bien lo expresa Massimiliano Fuksas, Lighting Designer, la luz es una de las certezas de la arquitectura. Y ciertamente, es un factor de éxito o de fracaso en el diseño y desarrollo de las obras.

Cuando hablamos de luz, en términos de efectividad energética, un término hoy muy cotizado en las agendas políticas, estamos hablando de un recurso de primer orden, no sólo por ser costoso, sino porque ha tenido el impacto de la imprevisión y la decidía de los gobiernos, en su generación y mantenimiento como energía.

Pero la luz no sólo es la artificial, producto de luminarias, bombillos o sistemas integrados. La luz también es la natural y puede existir un uso equilibrado y simultáneo de los dos tipos de iluminación.

Un diseño de edificio pensado para aprovechar la trayectoria del Sol, accesorios que reflejen y distribuyan la luz del día y un sistema artificial sensible que también pueda atenuarse, es una opción energética sostenible y ecológica, sobre todo en tiempos de racionamiento eléctrico.

La iluminación natural tiene el potencial de proporcionar importantes ahorros de costos. La iluminación eléctrica representa el 35% al 50% del consumo total de energía eléctrica en edificios comerciales. Mediante la generación de calor residual, la iluminación también añade una suma a las cargas de los equipos de refrigeración.

El ahorro de energía mediante la utilización de estrategias de luz natural puede reducir directamente la energía que se usa para enfriar en un 10% o 20% adicional.

En consecuencia, para muchos edificios gubernamentales  institucionales y comerciales, los costos totales de energía se pueden reducir hasta un tercio a través de la óptima integración de estrategias de iluminación natural.

Pero los beneficios de un edificio con luz natural se extienden más allá del ahorro de energía. Por ejemplo, mediante la reducción de la necesidad de consumo eléctrico para iluminación y refrigeración, el uso de la luz del día reduce gases de efecto invernadero y hace que el agotamiento de combustibles fósiles sea más lento.

Numerosos estudios también indican que la luz del día puede aumentar la productividad de los colaboradores de una empresa y acortar las permanencias de los pacientes en habitaciones de hospitales.

En este sentido, sería importante, sobre todo a nivel gubernamental, integrar un equipo interdisciplinario para desarrollar el uso de la luz natural como estrategia de ahorro energético y de preservación del medio ambiente, donde se integre la perspectiva profesional de psicólogos, ecólogos, sociólogos, arquitectos, ingenieros y lighting designer para examinar el uso de la luz artificial existente y las posibilidades de uso de la luz natural, a los fines de generar proyectos que tomen en cuenta el clima, el ahorro energético y la experiencia lumínica que se pretende lograr en el usuario, sea este operario, oficinista, maestro, alumno o ama de casa, entre otros.

Y por este camino, proponer la integración muy pertinente entre la luz natural y la iluminación artificial en obras públicas y grandes construcciones como aeropuertos, teatros, campus universitarios, hospitales e incluso vías.

La luz natural no sólo está relacionada con la experiencia visual de la forma y el espacio, sino que también está conectada con características térmicas. La luz, calor y confort, que son factores clave cuando se determina el consumo energético; si se manipulan y controlan correctamente, disminuirá la dependencia a los sistemas artificiales.

Desde Ecos aupamos una iniciativa que apunte a tener ambientes y espacios más saludables, cálidos y ecológicos.

*CEO Arquiluz.

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt.- La Tecnología es uno de los caminos más pródigos y próximos a la democratización y la conservación del medio ambiente. Es fascinante observar la creatividad. con rostro humano y ecológico. de las novísimas búsquedas tecnológicas. Lo que hace palpable un futuro más viable, menos conflictivo y más comprometido con las causas de la conservación y la preservación del patrimonio ecológico.

Un equipo de ingenieros peruanos, Tierra Nuestra, liderados por Jorge Gutiérrez, ingeniero ambiental, luego de 9 años de trabajo, ha desarrollado un sistema denominado PAU-20, con el que se pueden purificar 200.000 metros cúbicos de aire al día, es decir, la cantidad diaria de aire que respiran 20.000 personas.

Los contaminantes del aire quedan fijados en agua mediante un proceso que produce aire limpio. El depurador, conocido como superárbol, proporciona asimismo valiosa información sobre la contaminación biológica ambiental y es capaz de fijar al día tanto CO2 como una hectárea de eucaliptos. Su objetivo es disminuir la cantidad de aire contaminado, producido, en gran medida, por el parque automotor.

El aparato tiene un tamaño de cinco metros de alto por tres metros de ancho, pesa 1.200 kilogramos y precisa de 60 litros de agua para la destilación del aire contaminado. El aire y el agua, bajo condiciones termodinámicas adecuadas, logran equilibrar su entalpía (proceso de absorción termodinámico), produciendo la fijación de los contaminantes del aire en el agua en un proceso continuo.

Jorge Gutiérrez, participó y fue con uno de los 10 mejores proyectos, a nivel de América Latina, en el Concurso “Ideas para construir la Historia” del canal de televisión History Channel en 2014.

EL prototipo del purificador PAU-20 se ha erigido en el exterior del Ministerio de Producción de Lima, donde ha sido visitado, según Gutiérrez, por escolares y autoridades. "No sólo de Perú, sino también de Estados Unidos, Colombia, Venezuela, Chile, Corea, e incluso personalidades procedentes de París y Madrid", añadió el ingeniero.

Su funcionamiento es simple, reproduce "determinados procesos que se realizan de forma natural en la naturaleza, procesos termodinámicos, de presión, enfriamiento", es decir, la máquina recoge aire contaminado y lo devuelve limpio, explicó Gutiérrez. Todo el proceso por un costo de tres dólares diarios.

El Superárbol es capaz de purificar, eliminando polvo, gérmenes y bacterias, un volumen de aire de 8.334 metros cúbicos por hora, hasta llegar a los 200.000 metros cúbicos diarios, aseguran los ingenieros de Tierra Nuestra.

El creador del "superárbol", el Ing. Gutiérrez, afirmó que en otros países ya se han desarrollado proyectos similares, pero que todos resultaban inviables por su alto coste.

"Las máquinas desarrolladas en México o Chile proponían un consumo de entre 48 y 68 kilovatios por hora y un mantenimiento continuo, mientras que nosotros apenas utilizamos 2,5 kilovatios (el equivalente a 25 bombillas de 100 vatios) y alrededor de 60 litros de agua cada cinco horas", detalló el miembro de Nuestra Tierra.

En cuanto al coste de instalación, el objetivo es lograr que empresas con interés en labores de responsabilidad social se apunten como patrocinadores y que los purificadores de aire no supongan un coste para los municipios peruanos.

Aunque el proyecto ha sido especialmente desarrollado para la contaminada capital del país andino, rodeada de cerros de arena y donde nunca llueve, el objetivo es exportar los purificadores de aire. "La idea es llevarlo a la mayor cantidad de países que tengan este problema y poder trabajar a escala mundial para mejorar la salud de las personas", aseguró Gutiérrez.

El PAU-20 también fue admitido como candidato a los Rolex Award for Enterprise, un galardón internacional que premia proyectos innovadores.

Para Gutiérrez, el "superárbol" permitirá mitigar los problemas que acarrea la contaminación, pero matiza que su principal función será la de concientizar a la población: "la única solución real y definitiva es que las personas se sensibilicen y dejemos de utilizar combustibles fósiles".

Gutiérrez ha sido enfático al afirmar que "debemos tomar conciencia de que la salud es un bien tremendamente necesario para la vida (...) y cada miembro de la sociedad debe protegerse de la contaminación y por ello es necesario poner todo nuestro ingenio para resolverlo".

Desde Ecos, felicitamos esta iniciativa e invitamos a las empresas a invertir sus cuotas de responsabilidad social empresarial (RSE) en estas soluciones tecnológicas para tener ciudades sin contaminación y, por ende, ambientes más ecológicamente sostenidos. En Medellín, ya existen 2 árboles purificadores.

 

 

 

Write comment (0 Comments)

Por Felicia Saturno Hartt*.- En tiempos de imprevisiones y apagones, siempre la Tecnología tiene un abanico de herramientas y alternativas para solucionar angustiantes crisis y contribuir a la golpeada vida de los ciudadanos.

Una de esas alternativas es el uso del LED, el Light Emitting Diode, el diodo optoelectrónico emisor de luz, quien tiene más de 50 años presente en los mecanismos de control y en muchos dispositivos electrónicos, como semáforos y señalizadores y, hoy en día, es una alternativa lumínica.

Gracias a la búsqueda de sistemas más eficaces, en términos de incidencia energética y ahorro de energía, en los últimos 15 años el cincuentón LED se ha tornado en objeto de investigación continua y opción de innovación para los lighting designer y para el uso público, no sólo como alternativa para el paisajismo y la iluminación comercial, sino para su integración a la iluminación utilitaria de sitios públicos.

Pero, ¿Qué es el LED? En primer lugar, a diferencia de los otros sistemas de iluminación, el LED es un diodo, compuesto por la superposición de varias capas de material semiconductor, que emite luz en una o más longitudes de onda (colores), cuando es polarizado correctamente. En otras, palabras, el Led es un dispositivo que permite el paso de la corriente en una única dirección.

En segundo lugar, es un dispositivo lumínico que destaca por su considerable ahorro energético, arranque instantáneo, aguante a los encendidos y apagados continuos y mayor vida útil.

Son eficientes energéticamente, porque como los expresan los expertos, el LED no requiere de la gestión de otros aparatos internos como los otros sistemas lumínicos, lo cual determina su incidencia, como dispositivos que pueden ser utilizados en obras civiles y gubernamentales, como el alumbrado público, ya que, aunque sus costos iniciales son más altos que los de otros sistemas lumínicos, como el sodio, el metal halide y los fluorescentes, esta inversión significa, a corto y mediano plazo, ahorro y eficiencia sin reposición de componentes accesorios.

Y, en tercer lugar, el LED aparte de tener mayor tiempo de vida y consumir menos energía, posee mayor resistencia a las vibraciones, reducida emisión de calor, no contiene mercurio (altamente nocivo y contaminante), no crea campos magnéticos, reduce ruidos en las líneas eléctricas, son especiales para utilizarse con sistemas fotovoltaicos, en comparación con cualquier otra tecnología actual; asimismo, a los Leds no les afecta el encendido y son especiales para sistemas antiexplosión, por ser elaborados con materiales resistentes.

Por su novísimo uso como sistema de iluminación, poco se sabe aún de su impacto ambiental y en la salud de los seres vivos, aun cuando algunas investigaciones recientes apuntan a recomendar el control de la contaminación lumínica de los ledes azules, porque pueden ser dañinos a la vista.

De seguro sus productores en China y las transnacionales como Osram (Siemens) que los diseñan están a la vanguardia de estudiar los impactos del LED, sobre todo por su reciclaje y posterior destrucción.

En función a lo hoy expuesto, Ecos sugiere a los gobiernos y, en especial, a la administración actual de Colombia, la consideración de invertir en esta tecnología LED, ya que, como dicen los expertos, los grandes demandantes del servicio eléctrico, como los puertos y aeropuertos, la vialidad urbana (autopistas, túneles, puentes, etc) , los centros de salud, las instituciones de vigilancia y orden público, las instalaciones industriales, entre otras, que requieren el uso continuo de luz, por sus características y funciones, pueden usar en sus luminarias LEDs y reducir el consumo sin dejar de ser eficaces y sin  afectar el consumo doméstico,  donde la adquisición de estos dispositivos es casi imposible por sus altos costos.

Si se usa Led, el ahorro energético y la eficiencia serán realidad.

Arquiluz CEO @hagaselaluz

 

 

Write comment (0 Comments)