Tecnología

La Cyberseguridad ¿Otra Política de Estado?

Por Felicia Saturno Hartt. Foto: TicBeat.- Navegar por la web es ya tan peligroso que cruzar una avenida principal del centro de alguna ciudad. Los cibercriminales están al acecho y ya tienen un comportamiento susceptible a ser estudiado, no sólo como delito, sino como industria, capaz de representar un porcentaje del PIB mundial.

Esta preocupante realidad es producto del inmovilismo social y gubernamental, porque la actualización de los delitos es aún reactiva. Dejemos que pase para que exista. Pero esta realidad es ya preocupante y requiere una respuesta contundente, desde varios órdenes, porque esta vulnerada, de forma global, la seguridad de todos. No hay fronteras para los cibercriminales. Es más, las utilizan para robar en un país, sacar el dinero en efectivo en otro y finalmente gastarlo en un tercero.

El delito informático representa anualmente el 0.8 % del producto interno bruto (PIB) mundial, más de 6,100 millones dólares y la cifra va en aumento, según el experto Brett Kelsey, Vicepresidente y Director de Tecnología para América Latina, de la empresa Intel Security.

Según el reciente informe Ciberseguridad 2016 del Banco Interamericano de Desarrollo (BID) y la Organización de los Estados Americanos (OEA), solo seis países en América Latina y el Caribe tienen estrategias de seguridad cibernética.

Solo algunos países de la región, como Brasil, Colombia, Jamaica, Panamá, Trinidad y Tobago y Uruguay han adoptado medidas ante las nuevas amenazas, mientras que Argentina, Antigua y Barbuda, Bahamas, Costa Rica, Dominicana, El Salvador, Haití, México, Paraguay, Perú y Surinam están en proceso de articular estrategias.

Para Kelsey de Intel, estos datos deben a animar a los gobiernos a articular sus capacidades frente al cybercrimen “con el objeto de minimizar riesgos y debilidades”… “Ese es el primer paso: tener conciencia del peligro”, indicó el experto, que destacó que, actualmente, EEUU, Reino Unido y Singapur son los países más preparados frente al delito informático.

Kelsey apuesta no sólo a conocer esta terrible realidad virtual,  sino a la acción conjunta, tanto de instituciones como de empresas en todo el mundo. “No se trata de un asunto de seguridad regional, es un problema global, los ciberdelincuentes no miran los mapas”, afirmó.

En este sentido, es interesante reseñar algunos aspectos sociopolíticos vinculados al cybercrimen. Según el informe del World Economic Forum, llamado Global Risks 2015, se clasificó los ciberataques en las zonas donde las tasas de desempleo son mayores y donde el cambio climático se está dejando sentir con más fuerza.

En el informe, se clasificó a más de 40 países en una situación de riesgo relativo de hacer negocios y a los mercados de países emergentes como Angola y la República Democrática del Congo, como los que tienen el riesgo más alto. Para los autores, las ciberamenazas están en franco ascenso, especialmente conforme cuando los negocios globales intentan llegar a un mundo que está desarrollándose.

Para poner todo esto en perspectiva, el cybercrimen en Brasil genera ocho mil millones de dólares al año en pérdidas para las empresas. En la actualidad, este país es la principal fuente y destino de ataques que se suceden por América Central y Sudamérica.

En China, el año pasado, las autoridades del país asiático arrestaron a 15.000 personas acusadas de actividad cibercriminal, dando comienzo a una nueva ofensiva para salvaguardar Internet. Las autoridades investigaron más de 60.000 webs y aumentaron los esfuerzos para bloquear contenido, así como para insistir en que los registros en las webs se hagan con el nombre real de los usuarios y no con pseudónimos.

En el informe del World Economic Forum, se reporta  que aún no tienen un responsable de seguridad o personal que pueda gestionar mejor las infraestructuras o sus políticas en el 80% de los gobiernos. Sin nadie que se ocupe de estas tareas, podría decirse que en el país las medidas de seguridad informática son prácticamente inexistentes.

Se requiere asumir como usuario, tanto individual o familiar y como corporativo o institucional, conceptos básicos de seguridad digital. En un informe de 2015, elaborado por KPMG se recomendaban cinco acciones básicas: parcheado regular del software para cerrar vulnerabilidades, restringir el acceso a datos, aplicar un testeo continuo para buscar vulnerabilidades en los programas, monitorización de sistemas críticos y preparar planes de respuesta rápida a incidentes.

Con estas simples acciones podremos estar un poco tranquilos, porque los delincuentes aman tanto la tecnología como nosotros.

El Big Data y la Salud

Por Felicia Saturno Hartt. Foto Siemens. Siemens la gigante alemana que opera en los sectores industrial, energético, salud e infraestructuras y ciudades, sorprende no sólo con sus propuestas sino con sus avances.

Hubo un antes y un después dentro de la historia de la salud y fue el momento en el que se descubrió el potencial del análisis de datos para descifrar los misterios del ser humano.

Desde que el Proyecto del Genoma Humano vio la luz, se puso en relieve algo que ya es una realidad en otros campos: el “Big Data” mejorará la prevención, el diagnóstico y el tratamiento de enfermedades.

La salud es uno de los sectores que mayor cantidad de datos genera. Sin embargo, se enfrentan a un gran reto: almacenar e interpretar la información para que sea útil en la detección de enfermedades. De hecho, el 80 % de los datos de salud no se encuentran estructurados y se almacenan de forma diferente, según sean pruebas de laboratorio, de imagen o transcripciones médicas.

Pero, ¿qué ventajas tendría el uso del Big Data en la Salud? Es la pregunta obligada y las respuestas, según Siemens, en su Blog son sencillas.

En primer lugar,  Mejorar el diagnóstico; en segundo lugar, reducir los costos sanitarios; en tercer lugar, mayor control asistencial y mejor comunicación con el paciente: en cuarto lugar, la predicción de enfermedades según antecedentes médicos; en quinto lugar, agilizar los sistemas de gestión y pago a proveedores y en sexto, ayudar a que los investigadores tengan a su disposición un sistema que les facilitará la búsqueda de tratamientos.

Si se sabe que existen 16.000 hospitales que recopilan información de sus pacientes y 4,9 millones de personas con algún tipo de dispositivo que monitoriza su salud, se debe encontrar algún método que consiga transformar los datos en información. De hecho, si la digitalización sanitaria fuese una realidad, EEUU ahorraría cada año entre 300.000-450.000 millones de dólares al año.

En este sentido, Siemens ha creado “Teamplay”, una herramienta en red basada en el “Cloud”, que ayuda a que el médico tome decisiones rápidas y bien informadas, mediante la conexión de datos actuales en cualquier disciplina, la comparación de los puntos de referencia y la colaboración entre los profesionales sanitarios de todo el mundo.

Teamplay no es sólo fácil de usar, sino que además permite un mayor control de la dosis de radiación; ofrece un intercambio de información entre profesionales de manera instantánea a través de La Nube; y garantiza la seguridad y la privacidad de los datos. Los radiólogos, los médicos y los gerentes son la comunidad que más se puede beneficiar del uso de este sistema en su día a día.

Esta herramienta ha conseguido lo que muchos doctores ya auguraban hace tiempo: “los datos son la única manera de satisfacer las necesidades futuras de los pacientes”.

El Big Data va a transformar los enfoques de la asistencia sanitaria, ya que no se va a agrupar la información de los individuos para predecir lo que sucede a nivel de población. En su lugar, los datos de la sociedad serán tan amplios que van a predecir con exactitud lo que sucede a un paciente de manera individual.

 

 

Entre el Ocio lúdico y el Negocio: E3 2016

Por Felicia Saturno Hartt. Foto: Ecos/E3- 2016.- Todo está a punto en Los Ángeles para el comienzo del E3 2016, el mayor evento del planeta dedicado al ocio interactivo y el entretenimiento, presentada por la Entertainment Software Association (ESA), que se celebrará del 14 al 16 de junio, en el Convention Center de esta ciudad del Pacífico norteamericano.

Gran parte de los mayores anuncios de la industria de los videojuegos, desde 1995, se han dado lugar en esta feria. Desde aquel ya lejano 1995, en que Nintendo mostró la Ultra 64 (más tarde la Nintendo 64) y Sony presentaba la primera PlayStation, hasta esta última edición donde se verán títulos tan esperados como Shenmue III o el remake del Final Fantasy VII. Y 20 ediciones han marcado esta industria del entretenimiento.

Cercano al lanzamiento de la nueva generación de consolas de videojuegos, se espera con expectación las conferencias de los tres grandes, Sony, Nintendo y Microsoft. No se conoce su fecha de lanzamiento, pero es seguro que se hablará de PS4 Neo, Xbox Slim y Two y la Nintendo NX, que ha sido la única realmente confirmada oficialmente.

También habrá una conferencia dedicada las grandes distribuidoras y productoras, como EA, Bethesda, Ubisoft o Square Enix, entre otras, porque el E3 2016 es una feria eminentemente de videojuegos y no faltará ninguna de las empresas del ocio interactivo.

Entre las novedades confirmadas están Gears of War 4, Battlefield 1, Call of Duty Infinite Warfare, Mass Effect Andromeda, Deus Ex: Mankind Divided, Legend of Zelda, Dishonored 2 o Motoracer 4, por citar unos cuantos, porque la lista será amplísima.

El juego en PC también tendrá una gran presencia. Bajo el anuncio de “una nueva era para el juego PC” el año pasado se celebró el PC Gaming Show, la primera vez que el PC, como plataforma, contaba con una conferencia exclusiva en la feria.

Este 2016, el juego PC estará potenciado por la nueva generación de gráficas dedicadas de NVIDIA y AMD, la reproducción de resoluciones 4K y el soporte para los dispositivos de Realidad Virtual, que han encontrado en los videojuegos el punto de entrada ideal al mercado de consumo.

El juego en movilidad, las consolas portátiles, las alternativas de sobremesa como Steam Machines, los nuevos servicios de juegos y un larguísimo elenco de accesorios y periféricos, completan las novedades más interesante de esta feria E3 2016 que marca el devenir del sector para todo el año. Industria multimillonaria que sigue ofreciendo grandes oportunidades de negocio y de diversión.

Los amantes de los juegos y fanáticos de los estratégicos, estaremos muy pendientes de las novedades y de las propuestas lúdicas de esta feria para este año, sobre todo las de EA.

Biónica para incluir y capacitar: Hugh Herr

Por Felicia Saturno Hartt. Foto: Dennis Kleiman.- Durante las Olimpiadas de Londres, los que adoramos el atletismo, observamos a un corredor en la línea de salida de los 400 metros, con sus prótesis de carbono, en una competencia convencional no paraolímpica, sentimos que un profundo avance se había suscitado en el escenario social, la discapacidad era superable.

Ese corredor, Oscar Pistorius, lidiaba con otro problema: la Federación Internacional de Atletismo (IAAF), desde hacía 4 años, no estaba de acuerdo que compitiese, debido a que diversos estudios aseguraban que sus prótesis le daban ventaja sobre cualquier competidor.

Un equipo de científicos dirigidos por el doctor Peter Brüggemann, de la Universidad de Colonia, había determinado, en 2007, que sus prótesis le daban ventaja sobre el resto de atletas, porque le impulsaban extraordinariamente, en cuanto adquiría cierta velocidad, actuando como una especie de muelles y le ahorraban un gasto de energía de hasta un 25%.

Esta fabulosa ventaja tenía un artífice, el escalador, ingeniero y biofísico Hugh Herr, hoy ganador del Premio Princesa de Asturias de Ciencia y Tecnología. E incluso logró su fichaje para Londres.

Herr (Lancaster, 1964), experto en Biomecánica del Instituto Tecnológico de Massachusetts, ha sido galardonado por crear las prótesis más sofisticadas del mundo. Obras maestras de la ingeniería que mezclan mecánica con sensores y que, según él mismo explicaba “cerrarán la brecha entre discapacidad y capacidad”.

El artífice también vivió la discapacidad

La historia de Herr es, incluso, más dramática que la de Pistorius. En 1982 era considerado uno de los mejores alpinistas jóvenes de EEUU, cuando durante una escalada en el Monte Washington, una enorme ventisca atrapó a su expedición. Fruto de la congelación, sus dos piernas tuvieron que ser amputadas. Ahí empezó su carrera por volver a subir montañas justo en el punto donde lo había dejado.

La adversidad le motivó a centrarse en sus estudios y tras especializarse en ingeniería mecánica, comenzó a elaborar prototipos de lo que hoy son las piernas biónicas sobre las que camina y que le han permitido volver a escalar con regularidad.

Ahora, tras años de estudio, Herr ha desarrollado más de 50 patentes de prótesis inteligentes. “A través de la innovación tecnológica, regresé a mi deporte más fuerte y mejor; y entonces comencé a imaginar un futuro donde la tecnología estaría tan avanzada, que podría librar al mundo de la discapacidad”, explica el ingeniero.

Actualmente, es profesor asociado en el Programa de Arte y Ciencias del MIT, y en la División Ciencias de la Salud y Tecnología de Harvar- MIT. Como líder del grupo de investigación en el área de Biomecatrónica en el MIT Media Lab, se enfoca en el desarrollo de sistemas robóticos que aumenten la capacidad física humana. La mayoría de sus diseños son para personas con dificultades y situaciones similares a las suyas.

Herr ha publicado más de 60 documentos peer-reviewed en el área de rehabilitación y es titular (o cotitular) de más de 10 patentes, 4 relacionadas con dispositivos de asistencia, incluyendo rodillas artificiales controladas por computadora, 5 disponible en el mercado como Rheo Knee, 6 una órtosis activa de tobillo y pie y la primera prótesis electrónica de tobillo-pie en el mundo.

Todo esto está provocando un avance en el relativamente nuevo campo de la ingeniería biónica que, por medio de principios en biomecánica y control neural, marca la pauta para el diseño en dispositivos en el área de rehabilitación y mejora de capacidades motrices. La meta es lograr rehabilitar completamente a pacientes que han sufrido amputaciones, así como aumentar capacidades físicas de aquellos con fisiología intacta.

En una entrevista realizada por Javier Anzorena, del diario ABC de España, Herr planteó que estamos llegando a la Era Biónica, porque “Se está produciendo una fusión de campos clave relacionados con la biónica, como el aprendizaje de las máquinas, la ingeniería de tejidos o la robótica. Todas están convergiendo en este momento de la historia”.

En este sentido, este biofísico del MIT es enfático en afirmar que “estamos en la edad en la que comenzamos a ver la integración de la tecnología en el cuerpo humano. Esos diseños son más que herramientas. Cuando implantamos una de nuestras piernas biónicas en los pacientes una reacción habitual es que digan “me han devuelto mi cuerpo, me han devuelto mi pierna”. Lo siento, pero cuando a alguien le das un martillo no piensa que le has devuelto su cuerpo”.

Cuando se le pregunta cuánto mejoraremos el cuerpo con esta tecnología Herr habla de lo que ya es posible: Nosotros fuimos los primeros en construir un exoesqueleto de una pierna para una persona que tenía todas sus extremidades, en 2014. Ya tenemos exoesqueletos que mejoran la capacidad humana. En los próximos años y décadas, veremos estructuras de este tipo con aplicaciones increíbles: nos permitirá correr más rápido, con menos gasto de energía, con menos desgaste de nuestro cuerpo… Es apasionante”.

Posibilidades biónicas que no sólo se usarán en la discapacidad, para reparar órganos o partes del cuerpo, sino cuando queramos mejorar nuestra capacidad. “Hay gente con una patología en una extremidad que quiere recuperar la normalidad. Y hay gente con una fisiología normal que quiere mejorar su capacidad con un exoesqueleto”, indica Herr.

Herr plantea, desde otra perspectiva, lo que significa el avance tecnológico, con todo un análisis proyectivo: “A medida que nos adentremos en el siglo XXI, nos preguntaremos una y otra vez qué significa ser humano. Si reemplazas las cuatro extremidades de un humano con máquinas, ¿es esa persona todavía humana? Este siglo tendrá que enfrentarse a cuestiones filosóficas muy interesantes sobre la naturaleza de lo humano”, señala.

Esperamos que Herr y otros científicos logren perfeccionar estas fabulosas invenciones para, no sólo hacer más inclusivas estas herramientas, en pos de una vida normal a los dispacitados, mejorar la capacidad humana ante el dolor y la vejez.

 

 

 

 

Marea: 160 terabits para unir 2 continentes

Por Felicia Saturno Hartt. Foto: Arctic Cable Company.- El gigante de las redes sociales Facebook y la compañía pionera en informática, Microsoft, se han aliado para desplegar un cable submarino de última generación, dirigido a unir sus centros de datos, a ambos lados del Atlántico, con la colaboración de la empresa española de telecomunicaciones Telefónica, informaron las gigantes tecnológicas.

El nuevo cable submarino unirá Virginia Beach (Virginia) con la localidad vizcaína de Sopelana (Bilbao, España), con el objetivo de acelerar las comunicaciones de centros de datos y servidores de los dos gigantes tecnológicos, a ambos lados del océano Atlántico.

160 terabits por segundo

El proyecto ha sido bautizado como "Marea" y tendrá la capacidad de transmitir 160 terabits por segundo a través de los casi 6.600 kilómetros de largo que tendrá esta construcción,  16 millones de veces más veloz que una conexión de internet doméstica, lo que lo convierte en el cable transatlántico con la banda más ancha que existe. La infraestructura la gestionará la empresa Telxius Telecom, creada recientemente por Telefónica.

Con el crecimiento imparable de gigantes de internet como Facebook, estas empresas están buscando modos de controlar la infraestructura que utilizan para conectar sus centros de datos y operar de manera más eficiente.

El proyecto “Marea” tendrá un sistema de “infraestructura abierta”, lo que le permitirá funcionar con tecnologías de distintos fabricantes y gracias a esto tendrá costos más bajos en su desarrollo y además contará con un sistema de actualizaciones muchos más rápido y flexible.

El cable submarino se espera que esté operativo en octubre de 2017 y su tráfico dará prioridad a las necesidades de Facebook y Microsoft.

“Nueva generación de infraestructura de internet”

El gran número de cables de telecomunicaciones que unen ambas orillas del Atlántico se originan en Nueva York, pero "Marea" está ubicado más al sur, cerca del centro de datos que Facebook tiene en Rutherford (Carolina del Norte)

"El cable Marea ayudará a satisfacer la mayor demanda de alta velocidad y fiabilidad para la conexión en la nube y los servicios online de Facebook y Microsoft y sus clientes", informaron las empresas en un comunicado conjunto.

El objetivo de este innovador cable es crear la "nueva generación de infraestructura de internet". Microsoft utilizará este nuevo elemento para sus servicios en la nube, como los de la plataforma Azure, del dispositivo Xbox o de servicios como Skype u Office.

Facebook y Microsoft buscan reforzar la seguridad que ofrece el envió de datos y, además, mejorar sus servicios de almacenamiento en la nube. Generalmente todos los cables que se encuentran cruzando el Atlántico parten desde la ciudad de Nueva York, provocando que exista una mayor cantidad de estos y además se sature el sector. En el caso de Marea, este será instaurado desde más al sur para que así pueda ser más ancho y con esto permitir más conexiones de datos.

Finalmente, ambas empresas reiteran que este nuevo y moderno cable no solo les permitirá trabajar entre Estados Unidos y Europa, sino que también les proporcionará la posibilidad de enviar datos a otros lugares del mundo, como Asia, África y el Medio Oriente.

BIG DATA para salvar Vidas

Por Felicia Saturno Hartt. Fotos: Memorial Sloan Kettering Cancer Center.- Para los escépticos y contradictores de la Tecnología, sobre todo de la Informática, el Proyecto del Memorial Sloan Kettering Cancer Center, un instituto estadounidense centrado en el tratamiento de esta enfermedad, liderado y cofundado por el ingeniero Paul May, no sólo les llegaría a asombrar, sino a conmover.

Paul May es el cofundador de un particular equipo multidisciplinar, que ha encontrado, en los miles de millones de datos que genera el hospital, la oportunidad para marcar la diferencia y usar el 'big data' para combatir el cáncer, una de las principales causas de mortalidad en todo el mundo.

El Equipo de Productos, usa toda la información que se genera en el centro para desarrollar tecnología biomédica, es crear ‘software’ útil.

May es el responsable de identificar en qué proyectos van a trabajar y de asegurarse de que desarrollan ‘software’ de calidad. El equipo no se encarga únicamente de trabajar con análisis de datos, sino que programa herramientas que ponen el 'big data' a trabajar para médicos e investigadores, intentando dar a los datos un uso real que pueda marcar la diferencia para los 130.000 pacientes que pasan cada año por el centro.

Un 'software' inteligente para estudios clínicos

En la actualidad, el equipo está trabajando en proyectos relacionados con la investigación clínica y el ‘machine learning’, “enseñando” a su ‘software’ cómo entender los ensayos clínicos con un nivel de detalle sin precedentes. Ya han sido capaces de desarrollar un programa especializado que se ha implantado en el centro.

“Descubrimos que era posible pescar toda la información relativa a ensayos y extraer conjuntos muy precisos de términos médicos y de criterios de elegibilidad, de manera que se pudiera buscar, de forma automática, en qué ensayo encaja cada paciente”, concreta May.

Gracias a este trabajo, un doctor del hospital puede describir, en un lenguaje natural, las características de un paciente y el ordenador le mostrará, de forma automática, los estudios que más se corresponden con ese sujeto.

Esto implica que los médicos no tienen que conocer cada ensayo y estadística al detalle, ya que, según este experto, la respuesta está a una única búsqueda de distancia. “Queremos que los médicos puedan centrarse en su trabajo y en el tratamiento de los pacientes. Nosotros nos encargamos de la complejidad de trabajar con los datos entre bastidores”, afirma.

El salto de los datos a un nuevo nivel

El Ingeniero May trabajaba en el hospital cuando se dio cuenta de que podían crear herramientas concretas, que contribuyeran a cambiar el funcionamiento del centro. Los datos ya se habían convertido en pieza fundamental del instituto de la mano de Ari Caroline, Jefe de Análisis de Datos y líder del Departamento de Estrategia e Innovación, al que ahora pertenece el nuevo equipo de reciente creación y del que May ya formaba parte.

Caroline y su grupo habían descubierto que los registros en el hospital disminuían cuando los pacientes no se sentían financieramente seguros, demostrando que los enfermos tienen muy en cuenta los costes a la hora de someterse a un tratamiento.

En ese mismo sentido, un estudio posterior logró persuadir a algunas aseguradoras de que cubrir tratamientos de alta calidad al inicio de un cáncer podría ahorrarles mucho dinero a largo plazo.

En el contexto de la salud pública estadounidense, en el que la mayoría de los pacientes no pueden afrontar los costes médicos y en el que las aseguradoras intentan limitar al mínimo los servicios que cubren, los datos supusieron una pequeña pero relevante victoria. Aunque hubiera que apelar al factor económico para obtenerla.

Watson, el Diagnosticador de IBM

Este departamento fue también el encargado de  entrenar a Watson, el superordenador de IBM, para que fuera capaz de entender un caso de cáncer y que tratara de replicar el proceso de decisiones usado por los doctores del centro, con el objetivo de desarrollar, en un futuro, herramientas que contribuyan al diagnóstico. 

Este era el sentido en el que quería trabajar Paul, que "había trabajado previamente en agencias de tecnología y de diseño y ya había entendido, hace tiempo, el valor que un equipo multidisciplinar podría aportarle a un lugar como el Memorial Sloan Kettering Cancer Center”.

Así que, junto con Alex Grigorenko -encargado ahora de los científicos de datos- y Bobby Genalo -en la actualidad diseñador de concepto-, se puso manos a la obra y diseñó prototipos que empleaban el aprendizaje automático. Consiguieron el apoyo de Ari Caroline, se convirtieron en un equipo oficial en septiembre de 2015 y empezaron a trabajar en problemas cada vez más avanzados.

En la actualidad el equipo está formado por ocho personas: tres científicos de datos, tres ingenieros de ‘software’, un diseñador y Paul May, el jefe del equipo. En los próximos meses serán once y esperan ampliar de nuevo la plantilla antes de que acabe 2016.

Para explicar el impacto de su trabajo, los miembros del equipo  suelen referirse a 'Moneyball', la novela de Michael Lewis que se convirtió en película en 2011 con Brad Pitt como protagonista.  En la historia, Billy Beane es el gerente general del  Oakland Athletics y consigue relanzar a este equipo de béisbol con la ayuda de un economista, utilizando los datos para fichar a los mejores jugadores. Un método que, aunque criticado en un principio, revolucionó el béisbol profesional. Ellos aspiran a ser los Billy Beane del sistema médico, usando la estadística para lograr más victorias contra el cáncer.

Datos para cambiar el mundo

En su día a día, el equipo trabaja con médicos e investigadores para encontrar la forma en que los datos puedan ser más útiles, fluidos y visuales. “Tendría que ser posible que un investigador tuvieran una corazonada y la pudiera validar en un segundo. Los datos son un material bruto muy valioso, así que queremos que sean lo más útiles posible, de forma que los médicos e investigadores puedan innovar tan rápidamente como su imaginación se lo permita”, concreta May.

Intentan desarrollar programas accesibles e intuitivos a los que investigadores y médicos puedan adaptarse fácilmente. De momento, y según el experto, la aceptación por parte del equipo del centro es muy buena. Se muestran además muy dispuestos a ayudarles y a proporcionarles información que pueda ayudar en la creación de nuevos algoritmos.

Más allá de las pequeñas trabas que puedan derivarse de la burocracia, buscar empleados competentes es la parte más compleja del trabajo de Paul May. “Es complicado encontrar a gente con verdadero talento que pueda ayudar con nuestro trabajo: ingenieros de ‘software’, científicos de datos y diseñadores están altamente demandados en Nueva York.”

“Pero creo que tenemos un trabajo realmente emocionante que ofrecer, un trabajo que tiene impacto real, así que tengo confianza en que el equipo seguirá creciendo y en que conseguiremos grandes avances en el futuro”, defiende May.

Enterrada entre los millones de datos que el hospital procesa cada día, hay información muy valiosa con detalles únicos que, bien interpretados, pueden ser vitales para mejorar los tratamientos. El plan de este equipo de guerreros del 'big data' es sacarla a la superficie y apuntarse cada vez más éxitos en la lucha contra la enfermedad.

“El hospital maneja una cantidad enorme de datos: millones de imágenes, resultados de laboratorio, perfiles genéticos y piezas de texto son generados cada mes. Y solo estamos arañando la superficie de las posibilidades de todos ellos”, sentencia May.

INTALENT: un Concurso en Arte y Tecnología

Por Felicia Saturno Hartt.-  Hasta el 8 de junio se encuentra abierta la convocatoria de INTALENT, la competencia que reconoce el talento innovador de base tecnológica y el desarrollo de la Economía Naranja en América Latina y el Caribe.

El objetivo es identificar, especialmente, emprendimientos que logren un impacto en el comercio y la integración regional profundizando las relaciones de intercambio entre los distintos mercados de la región. Tendrán una consideración especial los proyectos innovadores de base tecnológica en las áreas definidas como prioritarias por los organizadores de la convocatoria.

La Competencia Regional Intalent es promovida por el Banco Interamericano de Desarrollo (BID), en conjunto con MIT Technology Review en español y evaluará los proyectos que se postulen, en las categorías de artes, audiovisuales, herencia cultural, nuevos medios, software y arquitectura con la característica primordial de generar impacto en el comercio e integración en América Latina y el Caribe.

Pueden participar emprendedores que tengan la nacionalidad de alguno de los 26 países prestatarios del BID y que hayan desarrollado un proyecto original de base tecnológica con potencial de generar un impacto en el comercio y la integración. Este proyecto debe estar asociado a una o varias de las áreas comprendidas dentro de la Economía Naranja.

La iniciativa, por medio del concurso, busca destacar proyectos con potencial de crear riqueza y que contribuyan a mejorar la calidad de vida de latinoamericanos y caribeños, a partir de sus logros en materia de propiedad intelectual.

El premio principal son 10 mil dólares y un viaje a EmTech, una Conferencia de Tecnologías Emergentes de MIT Technology Review en Boston, Estados Unidos. El segundo premio es un viaje a Washington para asistir al concurso Idear Soluciones, organizado por el BID, donde se reunirán las startups más innovadoras en las industrias creativas y culturales de la región.

Una categoría especial de INTALENT premia, con 2 mil dólares, una fotografía sobre el cambio climático regional.

INTAL y MIT Technology Review en español confeccionaron un comité de jueces integrados por expertos de distintas nacionalidades que actuarán como jurados. El panel incluye empresarios, tecnólogos e investigadores de diversas universidades. Las evaluaciones emitidas por este jurado serán utilizadas por la organización para la elección final de los ganadores.

Ecos invita a los creativos de Argentina, Bahamas, Barbados, Belice, Brasil, Bolivia, Colombia, Costa Rica, Chile, Guatemala, Ecuador, El Salvador, Guyana, Haití, Honduras, Jamaica, México, Nicaragua, Panamá, Paraguay, Perú, República Dominicana, Surinam, Trinidad y Tobago, Uruguay y Venezuela para que participen en el concurso.

Para más información pueden consultar la página web del concurso: http://www.intalentlatam.com/.

 

 

El E-waste y sus costos

Por Felicia Saturno Hartt. Foto Cinaoggi.- Uno de los temas de agenda gubernamental e incluso parlamentaria que podría inspirar a los votantes, a corto y mediano plazo, es el desafío del E-waste, o reciclaje de equipos eléctricos y electrónicos, partes, piezas y demás objetos, de gran impacto medio ambiental y en seres vivos, la nueva basura del siglo XXI.

De acuerdo a la Organización para la Cooperación y el Desarrollo Económico (OCDE) un desecho electrónico o e-waste, es todo dispositivo alimentado por la energía eléctrica, cuya vida útil haya culminado.

En este sentido, la convención de Basilea, por su parte, define a la chatarra electrónica como todo equipo o componente electrónico, incapaz de cumplir la tarea para la que originariamente fueron inventados y producidos.

El gran reto de gobiernos y legisladores, a nivel mundial, ya que sólo Suecia, Dinamarca, Suiza y Bélgica, existe una cultura del e-waste  y procesos exitosos de recolección y reciclaje de basura electrónica, es no sólo definir con claridad el tratamiento de estos desechos según su naturaleza, impacto y posible beneficios, sino articular una política pública, sustentada en leyes socioambientales, que apunte más allá del vertedero electrónico, de tanto o más impacto ecológico que los vertederos tradicionales, cree conciencia del uso y genere incluso valor agregado.

Es desilusionante mencionar que las 50 millones de toneladas de desechos electrónicos que se generan anualmente, en gran medida, van dirigidos a los vertederos tradicionales, donde se mezcla con otras basuras y chatarras.

China posee el mayor vertedero del mundo de ese tipo, concretamente en la ciudad de Guiyu y se calcula que, en esa ciudad, trabajan 150 000 personas para tratar la basura que llega, principalmente, de EE. UU., Canadá, Japón y Corea del Sur.

Otro gigantesco punto para verter RAEE está localizado en Ghana, África, que emplea indirectamente a unas 30 000 personas y aporta por año entre 105 y 268 millones de dólares al país. Esta nación africana importa alrededor de 215.000 toneladas cada año. Muestras de contaminación tomadas en los suelos determinan niveles muy altos de concentración de metales pesados, como plomo, cobre o mercurio.

La ONU estima que el 80 % de la basura tecnológica generada en todo el mundo se exporta a países tercermundistas, donde no existe ninguna regulación.

El E- waste en América Latina

América Latina produjo el 9% de los residuos electrónicos (e-waste) del mundo, durante 2014. Esto equivale a 3.900 kilotones (kt), según los datos del nuevo informe de la GSMA y el Instituto para el Estudio Avanzado de la Sostenibilidad de la Universidad de Naciones Unidas.

El estudio titulado “E- waste en América Latina: Análisis estadístico y recomendaciones de política pública”, revela que, en los próximos cuatro años, el E-waste generado en la región, crecerá entre un 5% y un 7% anual, alcanzando casi 4.800 kilotones o kilotoneladas para 2018.

El reporte, asimismo, identifica los desafíos principales en la gestión de los desechos electrónicos en América Latina, centrándose en particular en las oportunidades para la recolección y el reciclaje de teléfonos móviles.

El promedio de e-waste generado en América Latina durante 2014, fue de 6,6 kg por persona, de los cuales apenas 29 g provienen de teléfonos móviles. Esto equivale a unos 0,3 teléfonos móviles desechados por persona en el año.

Se trata de un crecimiento de 70% respecto a 2009, mientras que, a nivel global, se espera un crecimiento de sólo 55%. En América Latina la tasa de crecimiento anual esperada se reducirá del 7% en 2012 al 5% en 2018.

Los desafíos de la gestión del E-waste

Diversos elementos fundamentales deben ser considerados al analizar los desafíos de la gestión del E-waste: los desechos electrónicos a menudo contienen materiales considerados tóxicos, que son potencialmente perjudiciales para el medio ambiente y la salud de las personas.

Esto también puede afectar la vida de los niños en muchos países, ya que pueden estar expuestos a agentes químicos derivados del reciclaje clandestino de e-waste –una actividad que se realiza cotidianamente, incluso en viviendas, ya sea por los padres o por los propios niños. Los niños también pueden estar expuestos a través de vertederos ubicados cerca de sus hogares, escuelas y áreas de juego.

Una alternativa es extender la vida útil de los equipos electrónicos, desde una perspectiva del ciclo de vida, en algunos productos. Esto reduce la huella ecológica, a través de una menor producción y facilita la disponibilidad de bienes para los segmentos de la población que no pueden acceder a los últimos modelos.

Sólo unos pocos países de América Latina tienen proyectos de ley específicos sobre la gestión de los desechos electrónicos. En la mayoría de los casos, la gestión de los residuos electrónicos está regulada en la legislación general de residuos peligrosos. Actualmente se debaten políticas públicas específicas o directrices técnicas, que aún deben pasar por el proceso legislativo o ser implementadas.

Desde una perspectiva estratégica, el  informe de la GSMA y el Instituto para el Estudio Avanzado de la Sostenibilidad de la Universidad de ONU,  hay principios fundamentales deben guiar el desarrollo de las políticas públicas de desechos electrónicos y abordar la recolección y el tratamiento de teléfonos móviles, en particular:

1)    Las autoridades públicas deben crear campañas de concientización adecuadas y específicas. Para ello deben contar con el apoyo de fabricantes, proveedores de servicios, minoristas y municipios. Y

2)     Asimismo, informar a los consumidores acerca del rol fundamental que tienen en la cadena de reciclaje: los aparatos que quedan en la casa, incluso cuando no se utilizan, bloquean recursos provenientes de los procesos de reciclaje. Además la eliminación inadecuada de desechos electrónicos (sobre todo teléfonos móviles) junto con otros desperdicios sin clasificar puede impedir para siempre la recuperación de materiales críticos.

3)    Uno de los elementos principales para garantizar el acceso futuro a metales clave es facilitar la eficacia en la cadena de reciclaje, para producir productos y funcionalidades.

El E- waste en Colombia y su tratamiento legislativo

Colombia publicó una regulación específica sobre residuos electrónicos basada en REP en 2013, pero el proceso legislativo aún está en curso y se espera que termine pronto.

El proyecto de ley se complementa con regulaciones existentes sobre lámparas y baterías. Se están estableciendo esquemas de cumplimiento para la gestión de determinados flujos de residuos electrónicos (principalmente de PC y periféricos, lámparas y baterías) para garantizar la gestión de los desechos electrónicos en todo el país.

La infraestructura de reciclaje utiliza principalmente desmontaje manual para fases de preprocesamiento y posterior exportación del procesamiento final de fracciones críticas.

Desde Ecos sugerimos tener en cuenta la problemática a futuro del E-waste, tomando en consideración las estadísticas disponibles, a los fines de generar no sólo una legislación que aborde el desafío del manejo de estos desechos tecnológicos, sino el desarrollo de una política pública del uso progresivo de estos aparatos, como estrategia inclusiva de penetración de las TIC.

 

 

 

Hannover Messe: Innovación Industrial

Por Felicia Saturno Hartt. Fotos: Hannover Messe News.- Con un invitado de lujo y más de 5.000 expositores y un cuarto de millón de visitantes, que abarrotaron los pabellones del recinto Ferial de Hannover durante toda la semana, se realizó la mayor feria de tecnología industrial del mundo: Hannover Messe.

La Feria de Hannover comenzó en 1947 en un edificio de una fábrica en Laatzen, al sur de Hannover, mediante un arreglo con el gobierno militar británico, con el objetivo de impulsar el avance económico durante la posguerra.

Debido a su éxito, la feria se repitió de ahí en adelante cada año, contribuyendo grandemente al éxito de la plaza de Ferias y remplazando a la ciudad de Leipzig, en Alemania Oriental, como la principal ciudad de ferias.

En 1980, el crecimiento de la industria de la información y las telecomunicaciones obligó a los organizadores, Deutsche Messe AG a dividirla dando como resultado la CeBIT.

El evento no tiene el atractivo de otras citas tecnológicas del año, porque está enfocado sobre todo a la maquinaria pesada y la industria de la robótica, pero sus cifras son la envidia del sector.

Por primera vez, en los 70 años que se lleva celebrando la feria, EEUU fue elegido como país invitado pero es también una oportunidad para dar impulso a una feria que, en los últimos años, y a consecuencia del impacto de la crisis económica en el sector industrial, estaba perdiendo relevancia.

Los organizadores apuntaron que la mayor economía del mundo está liderando un proceso de reindustralización en el que los datos, la energía limpia y sobre todo la robótica tendrán un papel protagonista.

La automatización fue de hecho una de las claves de la septuagésima edición de la feria, que se celebró bajo el impulso de la llamada Internet Industrial de las Cosas o IIoT.

Es una adaptación del concepto de Internet de los objetos al mundo de la fabricación y con el que las grandes industrias esperan mejorar la eficiencia de los procesos de trabajo y automatizar muchos de los pasos que, hoy todavía, tienen que ser supervisados por personas.

Armados con mejores sensores y permanentemente conectados entre sí, los diferentes componentes de una cadena de producción serán capaces de comunicarse, descubrir fallos y corregirlos en mucho menos tiempo.

Desde Ecos invitamos a nuestros lectores a explorar la website de la Feria de Hannover para observar las tendencias industriales del futuro, ya muy cercano: http://www.hannovermesse.de/

 

 

 

Analfabetismo Digital y Calidad de Vida

Por Felicia Saturno Hartt. Imagen Pungolo.org. - Una de las preocupaciones fundamentales de la clase política de América Latina debería ser reducir la brecha digital. Es imposible lograr competitividad, desarrollo sustentable e innovación si los ciudadanos de un país no sólo no tienen acceso de internet de calidad, sino son incapaces de manejar adecuada y eficazmente los dispositivos informáticos.

Ese desarrollo desordenado hace que las posibilidades de ser más efectivos e innovadores sean remotas. Un celular, hoy en día, es un centro de operaciones informáticas, más aún con la disponibilidad de las miles de aplicaciones, en gran número gratuitas, que se cuentan en los servicios asociados al software libre.

El analfabetismo digital es una condición que hace referencia a la incapacidad de manejar nuevas tecnologías, bien sea por falta de conocimiento, ignorancia o exclusión, y éste, muchas veces, no constituye en sí mismo un problema, que pueda detectarse inmediatamente en las personas e incluso en las organizaciones.

Y este desencuentro con lo digital resta posibilidades profesionales y académicas y hace que las personas no puedan acceder a las posibilidades de interactuar con las nuevas tecnologías, es decir, navegar en la web, disfrutar de contenidos multimedia, sociabilizar mediante las redes sociales, crear documentación, etc y ahorrar tiempo, organizarse y estar comunicado.

Un estudio de la Comisión Europea detectó que en países como Italia, Grecia, Bulgaria y Rumania, el 40% o más de su población persisten en el analfabetismo digital, a los que se suman Portugal o Lituania, donde la mayoría de su población no tiene competencias en este campo. La cifra alcanza en total a 11 de los 28 países que conforman la UE, en donde existen grandes posibilidades de que esa realidad les disminuya su fuerza competitiva en muchas áreas, sobre todo la industrial.

Y es que países como Reino Unido, Alemania y la propia Italia, son los que más demanda de empleos digitales tendrán en los próximos años, lo que implica que habrá un número importante de puestos de trabajo, entre 2015 y 2020, que podrían quedarse sin ser ocupados o tendrían que ser buscados en otros países o continentes.

El analfabetismo informático es la principal causa de la brecha digital y es una situación grave de desigualdad, en un mayor número de contextos y ámbitos, porque este tipo de analfabetismo, no es únicamente la incapacidad sociotécnica de generar información, interactuar con los dispositivos y proteger los sistemas, sino es no poder tener acceso democrático a la gama de posibilidades que los recursos digitales proporcionan para involucrarse, participar e intervenir en la vida pública.

A diferencia de los que piensen ciertos cultores de la democracia cavernícola, una de las mayores revoluciones democráticas ha sido la lucha por el internet abierto y los desarrollos informáticos en software libre, porque han incentivado la búsqueda de conocimientos, el acceso a la información en lugares remotos, donde aún ni la ancestral radio llega, y al desarrollo de la creatividad innovadora.

La Organización de Naciones Unidas (ONU) ha calificado el acceso libre a internet como uno de los DDHH inalienables. Como lo subraya Frank La Rue,  relator especial de la ONU sobre promoción y protección del derecho de libertad de opinión y expresión "internet es un instrumento insustituible en la realización de una serie de DDHH, en la lucha contra la desigualdad".

De este modo la desconexión centralizada de la red se considera ahora una infracción de los derechos civiles y el acceso a la red se equipará hoy con el derecho a la libertad de expresión.

Desde 2011 La Rue califica el valor de internet "como uno de los más poderosos instrumentos del siglo XXI que sirve para facilitar la transparencia de los actos hechos por los poderosos, recibir la información y aumentar la participación activa de los ciudadanos en la construcción de sociedades democráticas".

En su informe, investigó y evaluó las nuevas tecnologías en relación con la libertad de opinión y expresión por indicación del Consejo de Derechos Humanos de la ONU. El resultado de sus trabajos ha sido el informe de 22 páginas que continúa la directiva del Parlamento Europeo de 2008, en la que se recomendó con insistencia a los países evitar cualquier método que contradice a las libertades civiles y DDHH.

El documento subraya que varios estados "limitan, manipulan y censuran" la información que se difunde en la red sin tener ningún derecho para esto.

Los expertos de la ONU se manifestaron también en contra de la "desconexión" del pueblo de la red, argumentado a menudo como un acto de lucha contra la piratería, como por ejemplo se hace en Francia.

La veracidad de las afirmaciones del Informe de La Rue no esperaron, no requirieron mucho tiempo para verificarse. Los neototalitarismos de América del Sur, que han silenciado a la prensa independiente, con la disponibilidad al papel y la persecución de los periodistas, también han intervenido el acceso a los contenidos y estado online de portales no afines o críticos, incentivando el desarrollo de medios públicos de escasa independencia y de corte propagandístico de sus gestiones.

En este sentido, el gran desafío de la Agenda Política es utilizar las nuevas tecnologías y acceder y usar internet más allá de la dimensión individual y lograr una Cultura Informática Democrática, que se autoregule y propicie que la información y el conocimiento llegue a todos, como indicador de calidad de vida.

La Equidad Digital deberá ser una de las expectativas del ciudadano, una propuesta electoral y su establecimiento, tutelada por el Gobierno correspondiente, desarrollará principios de igualdad en la accesibilidad a productos y servicios digitales, con objetivo de superar la brecha digital existente entre las personas que tienen conocimientos digitales y los aplican a su vida diaria y las que son declaradas analfabetas digitales, con independencia de su condición social.

Desde Ecos aupamos el manejo de este poderosísimo recurso para democratizar desde la vida cotidiana hasta el desarrollo de las naciones.