Bioinformática: Algoritmos aplicados a secuencias moleculares produciendo resultados prácticos
Dr. Gastón Gonnet: D-INFK, ETH Zurich, Suiza
Resumen: El propósito de esta presentación es de describir algunas de las aplicaciones de la bioinformática en otras disciplinas que no son inmediatamente obvias donde los datos son únicamente secuencias moleculares. El objetivo es de describir estas aplicaciones y sus algoritmos a grandes rasgos, dando una idea de sus usos, pero sin entrar en mucho detalle. Las áreas de aplicación incluyen las clásicas, Medicina, Biología y otras un poco más sorprendentes, como la agricultura, ganadería, asuntos legales, identificación individual, ecología, arqueología, genealogía, etc.
Bio: El profesor Gonnet comenzó su carrera académica en el análisis de algoritmos. Más tarde, en 1980, junto con Keith Geddes, formó el Grupo de Cálculo Simbólico, un grupo dedicado a la investigación en Computación Simbólica o Computer Algebra, y para el desarrollo del Sistema de Álgebra Maple. Maple ha encontrado su camino en el mundo práctico, ayudando a los ingenieros para sus cálculos, a los científicos en sus investigaciones y a los estudiantes a aprender matemáticas. En 1983-1984, la Universidad de Waterloo y Oxford University Press se convirtieron en socios para la informatización del Diccionario Oxford de Inglés. En ese momento, el profesor Gonnet y sus colegas fundaron el “Centro para el Nuevo Diccionario Oxford de Inglés”. El Centro ha atraído una gran cantidad de actividad en torno a la obra en el diccionario y también en relación con la investigación que se realiza con grandes bases de datos de texto. Algunas de estas actividades llegaron a su punto culminante con la publicación de la segunda edición del diccionario, la obra que no habría sido posible sin el procesamiento inteligente de texto. Las principales aportaciones de este proyecto han sido en las áreas de búsqueda rápida de texto, la estructuración del texto y transformaciones de texto que luego fueron reutilizados en la bioinformática. En 1989 el profesor Gonnet aceptó un cargo en ETH Zurich, donde está trabajando en Bioinformática. El profesor Gonnet y el Prof. Steven Benner fundaron el Grupo de Investigación ETH de Bioquímica Computacional. El CBRG fue responsable de la primer auto-comparación de una base de datos entera de proteínas. El CBRG se especializa en el análisis de secuencias, los modelos de evolución y construcción filogenia. El trabajo en la bioinformática se ha extendido a diversos aspectos como la creación y la preservación en 2005 de la base de datos de la OMA, la mayor base de datos de relaciones ortólogas. El CBRG es miembro del Instituto Suizo de Bioinformática. En 1989 se concede al profesor Gonnet el premio anual de la Asociación de Tecnología de la Información de Canadá por sus contribuciones al álgebra computacional y la búsqueda de texto. En 2012 fue galardonado con el Dr. Honoris Causa por la Universidad de la República en Uruguay por sus contribuciones a la informática. El profesor Gonnet ha iniciado varias compañías relacionadas con su investigación, destacando Open Text y Waterloo Maple, ambas empresas situadas en Canadá. En la actualidad es Director Científico de CeeqIT y Porfiau, ambos emprendimientos recientes en Waterloo, Canadá.
Privacidad: La tensión entre las capabilidades tecnológicas y las expectativas de la sociedad
Dr. Ernst L. Leiss: Universidad de Houston, EEUU
Resumen: La sociedad civil tiene ciertas expectativas: Las personas y las instituciones, incluso los organismos gubernamentales, deben comportarse conforme a las leyes y a la ética de la sociedad. Generalmente, las leyes reflejan la ética de la sociedad. Sin embargo, la tecnología muchas veces crea capabilidades inesperadas y inauditas. De vez en cuando, estas capabilidades choquen contra las leyes y la ética vigente. Especialmente en el ámbito de la privacidad, pueden ser contradicho por las capabilidades que ofrece la tecnología. En esta charla, examinamos varias tecnologías de este tipo, desde bases de datos estadísticos donde consultas no deberían prestar acceso a información sobre individuos, a tecnologías que permiten localizar a un individuo o determinar en forma continua o intermitente el comportamiento de una persona, al monitoreo de comunicaciones, a la secuenciación del genoma complete de un individual. También comentamos sobre las implicaciones de estas tecnologías y como afectan nuestra privacidad.
Bio: Ernst Leiss obtuvo grados académicos en ingeniería (Dipl.-Ing., TU Viena, 1975), ciencia de la computación (M. Math., U. Waterloo, 1974), y matemática (Dr. techn., TU Viena, 1976). Trabajó como post doc en la Universidad de Waterloo (1976/7) y como profesor investigador en la Universidad de Chile en Santiago (1978). Empezó en el departamento de ciencias de la computación en 1979 donde todavía trabaja. Sus intereses incluyen teoría de lenguajes formales, computación de alto desempeño, y seguridad. Ha sido supervisor de 17 disertaciones doctorales y de mas de 100 tesis de maestría. Es autor de seis libros y mas de 160 trabajos científicos en conferencias y revistas. Leiss ha participado en cada conferencia CLEI desde 1992. Se involucró con LANC, para definir un modelo sostenible para la conferencia. Ha participado en numerosos comités de programa, en particular como General Program Chair de la conferencia en Quito en 2011, donde se usó por primera vez el modelo de simposios. Ha participado en un ECI curso en Buenos Aires y dos ERTIC cursos en Asuncion. Además, ha dictado cursos en Siria, Brasil, Italia, España, Alemania, Finlandia, Tunisia, y Marruecos. Hasta la fecha, ha dado seminarios en 32 diferentes paises. Leiss ha participado en la acreditación de programas en informática. Ha sido un ACM Distinguished Lecturer desde 1991. Ha ocupado puestos administrativos en su Universidad y actuado como presidente de varios comités; en particular, en 1994 como presidente del Senado de su universidad, inició una mayor reestructuración administrativa de la Universidad de Houston.
Ingeniería de modelos. Aplicación al alineamiento organizacional de los sistemas intensivos en software
Dr. Francisco Ruiz: Universidad de Castilla – La Mancha, España
Resumen: Las organizaciones demandan a los departamentos de TI respuestas cada vez más ágiles y mejor alineadas con las necesidades y objetivos corporativos. Esto ha llevado a la ingeniería del software a prestar atención por el contexto organizacional de los sistemas intensivos en software, surgiendo paradigmas como SOC (computación orientada a servicios) y BPM (gestión basada en procesos de negocio). Por otro lado, la ingeniería basada en modelos (MDE), inicialmente surgida para aumentar la eficiencia y eficacia durante el desarrollo de software, aporta ventajas extensibles a muchos otros ámbitos, incluida la mejora organizacional. Llegamos así al reto de investigar nuevos entornos (métodos, técnicas y tecnología software) basados en la integración de los tres paradigmas mencionados, que nos permitan atender mejor las dos necesidades de la industria del software, agilidad y alineamiento con la organización. En este reto se han abierto múltiples cuestiones a resolver, muchas veces de carácter multidisciplinar. Entre los distintos trabajos en este ámbito se presentarán detalles de dos: i) aplicar tecnología MDE para obtener modelos UML orientados a servicios a partir de modelos de procesos de negocio en BPMN; y ii) aplicar metamodelado para facilitar el gobierno de las TI, especialmente en cuanto a su cometido de dar soporte al cambio y mejora organizacional.
Bio: Catedrático en la Universidad de Castilla-La Mancha (España). Desde 1984 ha desarrollado su actividad en empresas como analista, gestor de proyectos, director TI y consultor. Desde 1989 es profesor universitario, incluidos más de 10 años de decano/director y de responsable de máster en ingeniería informática. Sus temas de investigación actuales incluyen la integración de paradigmas SOC (service-oriented computing), MDE (model-driven engineering) y BPM (business process management). Cuenta con dos centenares de publicaciones entre libros, capítulos, revistas, congresos, conferencias y talleres, incluidos 26 artículos en revistas internacionales indexadas. Miembro de ACM e IEEE-CS.
Cognición Espacial en la Robótica Inspirada por la Biología
Dr. Alfredo Weitzenfeld: Universidad del Sur de la Florida, EEUU
Resumen: El estudio de los mecanismos del comportamiento y neurofisiología implicados en la cognición espacial de la rata proporciona una base para el desarrollo de modelos computacionales y experimentos de robótica de tareas orientadas a objetivos. Estos modelos y arquitecturas robóticas ofrecen a los neurobiólogos y neuroetólogos plataformas alternativas para estudiar, analizar y evaluar nuevas hipótesis sobre la cognición espacial. En esta charla se presenta un análisis comparativo de la cognición espacial en ratas y robots en tareas orientadas a objetivos. Los estudios realizados en la cognición espacial de la rata se utilizan para desarrollar modelos computacionales del hipocampo para generar un mapa cognitivo del ambiente que impulsa la experimentación robótica. Se discuten las direcciones actuales y futuras de esta investigación.
Bio: Alfredo Weitzenfeld es Profesor del Departamento de Ciencias de la Computación e Ingeniería del Colegio de Ingeniería de la Universidad del Sur de Florida, donde dirige el Laboratorio de Biorobótica. Dr. Weitzenfeld obtuvo un BS en Ingeniería Eléctrica en el Technion en Israel, un MS en Ingeniería Informática y un doctorado en Ciencias de la Computación ambos de la Universidad del Sur de California en Los Angeles. Él es uno de los principales desarrolladores del Lenguaje de Esquemas Abstracto (ASL) y el Neural Simulation Language (NSL), que se describe en “The Neural Simulation Language NSL: A System for Brain Modeling” (co-autores M. Arbib y A. Alexander ) publicado en 2002 por el MIT Press. Además de su investigación en robótica de inspiración biológica y los sistemas robóticos cognitivos, Dr. Weitzenfeld también participa en la organización de competencias y conferencias de robótica internacionales, incluyendo la Concurso Latinoamericano de Robótica (LARC), Simposio Latinoamericano de Robótica (LARS), Campeonato Mundial RoboCup 2012 celebrado en la ciudad de México, y la Conferencia Internacional de Robótica Avanzada (ICAR) celebrado en noviembre de 2013 en Montevideo, Uruguay. Su investigación ha sido financiado por diferentes agencias gubernamentales, incluyendo el CONACYT en México y NSF en EE.UU. Él es uno de los editores de la revista “Journal of Intelligent y Robotic Systems”.
Avances Recientes en Restauración y Desocultación No-Local de Imágenes y Videos
Dr. Andrés Almansa: CNRS LTCI, Telecom ParisTech, Francia
Resumen: Las imágenes y videos digitales en bruto son generalmente ruidosas, borrosas presentan partes ocultas y otros deterioros debidos al sistema y condiciones de adquisición. Si este ultimo admite un modelo matemático detallado, entonces podemos reformular el problema de restauración de una imagen nítida como un problema inverso mal condicionado. Por lo tanto, para resolverlo numéricamente, resulta necesario adoptar un regularizador. Los regularizadores mas comunes en los inicios del tratamiento de imágenes estaban basados en filtros lineales (Gaussianos o de Wiener) o adaptativos. Los filtros no-locales, en cambio, no imponen ninguna estructura específica a los patches de una imagen. Solo suponen que los patches de una imagen natural son auto-similares, en el sentido que el mismo patch aparece en diversas posiciones de la misma imagen. La introducción de los métodos no-locales para la eliminación de ruido en imágenes en 2005 significo un gran paso adelante en términos de calidad de imagen. Mas recientemente (desde 2012) se logro mejorar aun mas la calidad, gracias a una formulación bayesiana mas precisa de la regularización no-local. Al mismo tiempo los métodos no-locales se han vuelto mas flexibles permitiendo su utilización en problemas inversos mas difíciles como la reconstrucción de partes ocultas (inpainting), en base al entorno visible. Desde un punto de vista computacional, sin embargo, los métodos no locales pueden requerir cálculos varios ordenes de magnitud más intensos que un simple filtrado lineal. Una parte importante de esta charla será dedicada a presentar las técnicas de aceleración algorítmica de las que disponemos para este tipo de métodos. En particular una generalización del algoritmo PatchMatch permite reducir el tiempo de calculo de varios días a solo algunas horas en un solo procesador. Igualmente, la estructura de arboles de covarianza permite acelerar los algoritmos de tipo non-local Bayes, incluyendo situaciones no estructuradas como las nubes de puntos 3D y la restauración basada en aprendizaje externo.
Bio: Andrés Almansa obtuvo sus diplomas de Habilitación, Doctorado y Maestria/Ingeniería en Matemática Aplicada e Informática de parte de la Université Paris-Descartes, ENS Cachan (Francia) y Universidad de la República (Uruguay), respectivamente, donde obtuvo el puesto de Profesor Agregado en 2004. Actualmente su actividad científica como investigador CNRS en Telecom ParisTech (Francia) incluye la restauración de imágenes, la visión estereoscópica de alta precisión y aplicaciones a la observación terrestre, fotografía digital y restauración de películas. Andrés Almansa ha publicado mas 40 artículos científicos en revistas y conferencias arbitradas y ha supervisado 8 tesis de doctorado en esas áreas.
Mobile Cloud Networking
Dr. Torsten Braun, University of Bern, Switzerland
Abstract: The EU FP7 Mobile Cloud Networking project (www.mobile-cloud-networking.eu) investigates the implementation of 4G/LTE mobile networks using processing and storage platforms hosted in the cloud. In particular, at our research group (cds.unibe.ch) we are investigating how to integrate Information-Centric Networking into the Mobile Cloud Networking architecture, i.e., how to support caching of contents by ICN routers and base stations. We further describe preliminary results about running Radio Access Network functions on cloud processing platforms. Moreover, we discuss how to distribute user equipment context information in such a cloud-based LTE core network. Since end systems are expected to be permanently connected to the wireless network, energy consumption becomes an important issue. We have developed WiFi MAC layer mechanisms to support energy-efficient operations for continuous data transmissions.
Bio: Torsten Braun got his Ph.D. degree from University of Karlsruhe (Germany) in 1993. From 1994 to 1995 he has been a guest scientist at INRIA Sophia-Antipolis (France). From 1995 to 1997 he has been working at the IBM European Networking Centre Heidelberg (Germany) as a project leader and senior consultant. He has been a full professor of Computer Science at the University of Bern (Switzerland) and head of the research group “Communication and Distributed Systems” since 1998. He has been member of the SWITCH (Swiss education and research network) board of trustees since 2001. Since 2011, he has been vice president of the SWITCH foundation.
The Phone as Wellness Guardian
Dr. Mario Gerla, UCLA, USA
Abstract: Smart phones are becoming more powerful and pervasive every year, supporting an increasing number of functions well beyond the original service of making phone calls while on the move. One important, emerging function is wellness – protecting the health of the owner. Phones today can be used to monitor known health condition (eg arrhythmia, diabetes. etc). They can monitor activities (ie, walking, running, eating, etc). They can also monitor our routes (eg, path taken, distance travelled, etc). All this information can be combined and correlated to come up with important wellness advisories for the owner. This talk will review the most recent advances in smart phone sensors as they relate to health and will review representative wellness applications including the UV Guardian application – protecting the owner from UV rays overexposure.
Bio: Dr. Mario Gerla is a Professor in the Computer Science Dept at UCLA. He holds an Engineering degree from Politecnico di Milano, Italy and the Ph.D. degree from UCLA. He became IEEE Fellow in 2002. At UCLA, he was part of the team that developed the early ARPANET protocols under the guidance of Prof. Leonard Kleinrock. He joined the UCLA Faculty in 1976. At UCLA he has designed network protocols including ad hoc wireless clustering, multicast (ODMRP and CODECast) and Internet transport (TCP Westwood). He has lead the ONR MINUTEMAN project, designing the next generation scalable airborne Internet for tactical and homeland defense scenarios. He is now leading several advanced wireless network projects under Industry and Government funding. His team is developing a Vehicular Testbed for safe navigation, contente distribution, urban sensing and inteligente transport. Parallel research activities are wireless medical monitoring using smart phones and cognitive radios in urban environments. He has served as a Technical Program Committee member of many international conferences, and is active in the organization of conferences and workshops, including MedHocNet and WONS. He serves on the IEEE TON Scientific Advisory Board. He was recently recognized with the annual MILCOM Technical Contribution Award for 2011 and the IEEE Ad Hoc and Sensor Network Society Achievement Award in 2011.