Nanotecnología

Por cosas de la vida resulta que  soy químico,  es decir, la nanotecnología me pilla cerca, pues creo que es desde la química desde donde mejor se puede entender la idea.

Algo tan amplio como la llamada nanotecnología, es un conjunto de ciencias y técnicas que tienen en común la escala de distancia en los nanómetros, vamos, la mil millonésima parte de un metro, una escala que hasta hace poco  estaba casi en el limbo de los proyectos de investigación. Apenas se trabajaba, se investigó, y mucho la escala inferior al nanómetro, entre el siglo XXI y la primera parte del XX gracias a ello surgieron los modelos atómicos, el principio de incertidumbre, etc,… En escalas superiores también se ha avanzado mucho por ejemplo en microelectrónica.
¿Qué supone entonces la escala nano? Supone diseñar lo grande desde lo pequeño, ordenar unas pocas moléculas para producir un efecto que en el material, en la escala macro, que jamás tendrían sin ese orden, sumpone construir tubos invisibles, reactores microscóspicos, sensores casi moleculares,… En definitiva supone un sinfín de nuevas posibilidades para la mayor parte de las disciplinas científicas. Una revolución.

Sistemas emergentes

O qué tienen en común hormigas, neuronas, ciudades y software

No es fácil encontrar un libro que nos ayude a entender lo que Internet está suponiendo para la transmisión del conocimiento a nivel global, pues todo lo que se publica a diario sobre este tema tiene fecha de caducidad, son datos puntuales, y no entran en el fondo de los mecanismos que mueven este y otros fenómenos, cada día más habituales, fenómenos que tienen en común una estructura auto-organizada de forma opuesta a las jerarquías a las que estamos acostumbrados. Sistemas emergentes fue escrito en 2001, y pese a ello la mayor parte de los temas tratados siguen hoy vigentes, entre otras cosas porque el autor trata de hacer comprensible el fenómeno de la emergencia de sistemas con ejemplos tan dispares como: un hormiguero, el cerebro o el Manchester del siglo XIX.

Steven Berlin Jonson es un escritor de divulgación científica norteamericano. Ha trabajado como columnista en revistas como Discover y Wired, y fue socio fundador en del ezine Feed, desde 2006 dirige la comunidad Outside-in.

Sistemas emergentes es un libro de divulgación científica que nos explica fenómenos que conocemos pero no entendemos, como las redes sociales de Internet o la forma en la que se crean barrios dentro de las grandes ciudades. La explicación para este tipo de sistemas hay que buscarla de abajo a arriba en lugar de tratar de ver en ellos una estructura jerárquica; la definición de un sistema emergente o ascendente es aquel que no está controlado por un elemento en concreto o coordinador.
El autor recurre a diversos ejemplos de: zoología, programación o urbanismo para ilustrarnos, y dedica un capítulo entero a desmontar el mito de la hormiga reina. En las colonias de hormigas, lejos de lo que el mito de la hormiga reina pretende, las decisiones se toman individualmente por cada hormiga en base a una lectura previa del nivel de feromonas de su entorno. Si una hormiga detecta que la frecuencia de hormigas recolectoras es baja (no se ha cruzado en toda la mañana con ninguna) creerá que el número de estas es bajo y por tanto comenzará a recolectar. Por supuesto, es un ejemplo sencillo para explicar un tema muy complejo, pero válido para introducirnos en un mundo apasionante acerca de estos sistemas autoorganizados.

En la última parte del libro se entra más a fondo en la informática, especialmente en el software evolutivo, y es ahí donde al lector le empieza a costar trabajo seguir el hilo argumental, tanto por el lenguaje técnico utilizado como por los ocho años que han pasado desde su edición, y es que en este tiempo la informática ha cambiado mucho.

Más artículos sobre sistemas emergentes

Elegancia es perder un poco

para ganar un mucho

www2009 a fondo

Introduccíón

El Congreso World wide web ha alcanzado su decimoctava edición y ha tenido lugar entre el 20 y el 24 de abril en el Palacio Municipal de Congresos de Madrid, con madri+d como socio oficial en la difusión del mismo. Este evento es el mayor congreso mundial de Internet y tiene periodicidad anual, en él se han dado cita investigadores, desarrolladores de grandes y pequeñas empresas. Internet tiene una característica particular frente a otros campos de investigación, y es la gran velocidad con la cual, los resultados de la investigación pueden llegar al mercado, de modo que tanto investigadores como emprendedores de base tecnológica, así como grandes empresas como Google o Yahoo han presentado y discutido numerosos temas. En los debates se mezclaban temas académicos con la monetización de Internet sin haber supuesto ningún problema.

Organización

Así como el perfil de los participantes era heterogéneo la organización se ha adaptado a sus particularidades: cabe citara que a penas se ha utilizado el papel, ni si quiera la agenda que se entregó con la acreditación al evento ha sido utilizada masivamente, en su lugar la web del congreso (www2009.org) se ha ido actualizando constantemente, así como una wiki que ha servido para ir recopilando las conclusiones, y ha estado abierta a aportaciones de personas que estaban dentro y fuera del Congreso, la utilización de esta herramienta colaborativa ha condicionado notablemente los procedimientos de trabajo en las salas donde se ha usado, de modo que en la sesión matutina se elaboraba un orden del día de temas de interés, que posteriormente, en las sesiones vespertinas se desarrollaba, discutía y documentaba; las reglas de las sesiones que de trabajo que se registraban en la wiki eran dos: las páginas generadas pueden tener o no un formato prefijado (según la sesión) pero debe haber consenso wiki. Todo ello exigía de una conexión inalambrica potente y estable que ha funcionado bien, aunque durante las sesiones de trabajo se notaba una caída de la velocidad de conexión, ello no supuso ningún contratiempo; otro de los requerimientos era disponer de enchufes para alimentar los ordenadores portátiles en cualquier punto de cualquiera de las salas.
En cuanto a los asistentes, han sido mayoritariamente extranjeros, y concretamente, es muy alto el porcentaje de asiáticos, principalmente chinos, indios y japoneses, especialmente desde el lado de la Academia. Como curiosidades organizativas: cada mañana, antes de comenzar las sesiones se habilitó una sala para yoga, o que en cada sala había un mínimo de diez placas de enchufes eléctricos.

Puntos de partida

Los temas tratados se han fundamentado en una serie de principios o tendencias sobre las que hay consenso entre los investigadores, en primer lugar la necesaria simplificación y homogenización de la web de modo que permita el acceso a servicios avanzados a personas con pocos conocimientos de informática, de modo que un gran número de líneas de investigación se encaminan a tejer un Internet sin que el usuario final perciba cambios, o al menos, sin que tenga que aprender técnicas informáticas nuevas, en lugar de eso se busca simplificar la navegación. Otra de las bases es la importancia que está cobrando la Internet móvil. La descentralización de Internet tiene influencia  en las relaciones interpersonales, cabe reseñar que personas muy representativas de Internet como Tim Berners Lee, Mary Ellen Zurko, o Ricaro Baeza-Yates estuvieron discutiendo de igual a igual con asistentes al congreso en numerosas mesas de trabajo; dicha descentralización también llega al hardware, a los dispositivos que se interconectan a través de Internet, en lo que se denomina Cloud computing o la nube de computación, respecto del soporte físico, el hardware, no ha habido ponencias centradas en ello, siempre y cuando se mantenga la neutralidad de Internet, el hardware no precisa de  un especio en el Congreso; si bien sí que se han enumerado amenazas que se ciernen sobre dicha neutralidad de la Red.
La generación de contenidos ocupa, en si misma, un lugar secundario en los temas del congreso, no obstante existe consenso en la necesidad de sistematizarla y calificarla para facilitar su entrega al usuario final; no obstante, la información es el valor real de Internet, pero puede estar en cualquier sitio, de modo que los trabajos se centraban en hacerla más accesible al usuario final.
La socialización de la web merece un apartado propio, mientras que en WWW 2007 en Banff (Canada), no existía un epígrafe especial para los medios sociales, redes sociales, y en el WWW 2008, en Pekín, ya se veía un interés de la comunidad por lo social, con un espacio sobre redes sociales, sin embargo, la WWW 2009 muestra la actual tendencia hacia la web social, ha dispuesto de un espacio propio y supone el 12% de los artículos aceptados para el Congreso.
Internet es multicisciplinar, se ha debatido sobre el término Ciencia computacional (Computer Science) como un lugar de encuentro de diversas disciplinas con la informática: sociología, ontología, estadística, lingüística, matemáticas,… desde un punto de vista integrador y de futuro, mientras que han sido escasas las presentaciones comerciales de productos orientados al mercado de consumo. Con este punto de vista, la computación se presenta como una herramienta más, como un medio y no como un fin.
La semántica (lingüística) y los sistemas inteligentes (software que aprende de lo que el usuario hace en Internet) abren vías para conseguir una web ordenada (enlazada de forma adecuada) y de fácil uso, de modo que el usuario encuentre lo que busca, sin tener que ser consciente de los procesos que de datos que su búsqueda origina. La navegación sobre imágenes, sonido y video abre nuevas posibilidades para extraer información tanto de objetos como de usuarios, de este modo indexar y extraer información de imágenes, sonido o video mediante el procesado de la señal es un campo con grandes posibilidades.
El impacto social de Internet es muy superior al impacto económico de la web, y su neutralidad debe preservarse frente a intereses económicos, del mismo modo el impacto mediático de este congreso se considera muy inferior al impacto social que las conclusiones del mismo tendrán sobre la población, dado que en el WWW2009 se debatió el futuro de Internet y estaban presentes los principales actores del sector, tanto desde el lado de la demanda tecnológica – las empresas -, como desde la oferta – la Academia-.

Ponencias

Computación social: se está trabajando en obtener pautas sociales y datos comparables de la conducta de los usuarios de internet en base a las pautas de navegación, y especialmente en la valoración que cada usuario da a un objeto, por ejemplo, a una fotografía o a un documento de texto, en base a ello se obtienen extrapolaciones de cómo valorará es usuario a otro objeto distinto que todavía no conoce o no ha valorado, de modo que existen aplicaciones directas en el campo de la recomendación de contenidos al usuario. Par llevarlo a cabo se utilizan unas tablas multidimensionales de filtrado colaborativo basado en el usuario, y permiten avanzar en reconocimiento de imágenes, porque la identificación del objeto presente en una imagen es algo que, a día de hoy, un ordenador no puede hacer, para el experimento se utiliza la denominada computación humana, en este caso se enseña a personas una imagen y se les pide que le aignen unas etiquetas (tags) tanto Yahoo como Google están centrados actualmente en esta línea de investigación. La denominada computación humana a través de juegos ofrece un gran campo para la experimentación actualmente. La computación social es una disciplina muy reciente pero que tiene vocación de permanencia por las grandes posibilidades que la web 2.0 le está abriendo, y se basa en la elaboración y el lanzamiento de nuevos videojuegos orientados a recabar información, por ejemplo en el año 2003 se estima que fueron 3.000 millones de horas las que los usuarios jugaron al Solitario de Windows.
La confianza en un usuario u organización a través de los registros del mismo es un asunto de actualidad para empresas como ebay, que trabaja en la extracción de datos y su procesado de cara a dar índices de confianza, para ebay es preciso disponer de dos índices de confianza, uno transparente, tal y como el que utilizan ahora mismo, y que está basado en la opinión que el comprador ofrece del vendedor tras una transacción, y otro opaco donde se ponderen otras circunstancias como el valor del objeto, su tipología, las respuestas que el vendedor ofrece, etc… Porque la confianza es in índice relativo, mientras que la reputación es global.
Otro de los asuntos de actualidad es la lucha contra el correo no deseado (spam) mediante herramientas sociales, para ello es preciso definir una serie de etiquetas (tags) de forma dinámica, se trabaja en estos momentos en la automatización de dicho etiquetado dentro de los documentos que circulan por las redes sociales, con estos métodos en Yahoo han alcanzado cuotas de eficacia en el filtrado social del spam del 97%. Los buscadores son en sí una fuente de información no deseada, este dato  stá corroborado por el bajo número de información de ese tipo presente en del.icio.us, un agregador de noticias que no dispone de buscador; la contrapartida de agregadores tan basados en la información que proporciona el usuario y tan poco basados en motores de búsqueda es el peso que una pequeña oligarquía de usuarios tiene en el mismo, por ejemplo, en Digg, el 25% de las noticias han sido enviadas por 20 usuarios.
Dos tendencias actuales de la web son la simplicidad, manifestada en el éxito de Twitter o Google, y la movilidad, de modo que los desarrolladores de pequeñas aplicaciones para teléfonos móviles han contado con un espacio propio en el WWW2009, según Tim Berners Lee, el acceso con teléfono móvil a Internet facilitará la incorporación de los países en vías de desarrollo a Internet. De cara a posibilitar el acceso universal a Internet también propuso enfatizar en la traducción automática de la web, lo cual enlaza con una de las áreas de trabajo específicas del Congreso, la accesibilidad web para discapacitados, que también contó con un espacio propio, otros retos de futuro son las interfases dispositivo-persona y la gestión de bases de datos, mientras que para Verizon el mayor peso estaba, al igual que para ebay, en la confianza y la seguridad; y la identidad en la web en el caso de Nigel Shadbolt.
Han sido varios los talleres para proponer ideas que han sido reflejados en la wiki oficial del congreso , algunos de los temas objeto de dichas tormentas de ideas han sido: lo que los dispositivos móviles suponen para la Web, la computación social, la extracción de la información,…
La extracción de información de la web 2.0 ocupó un lugar fundamental a lo largo de las jornadas de trabajo, pues en ningún modo se busca crear más obstaculos para el usuario sino homogenizar las plataformas actuales, crear interfaces de comunicación entre ellas, y sobre todo canalizar correctamente el flujo de información entre el usuario y los documentos que ese usuario desea; en palabras de Ricardo Baeza-Yates, no importa tanto el como se busca sino el porqué se busca algo. Premisa adoptada por el la comunidad de usuarios de Datos enlazados (http://linkeddata.org/).
La extracción de patrones desde el material audiovisual ocupó un buen número de ponencias, en concreto de Yahoo, Google o la Carnegie Mellon University entre otros, este campo abre nuevas posibilidades al trabajo de los buscadores, se trata de abrir los archivos de sonido, de imágenes o de video y se capaz de asignarles una serie de atributos, en el caso de Yahoo esto se materializa en la organización automatizada de vídeos en webs 2.0

Post patrocinado por Nokia

Esta se la dedico al bueno de Javier Martín de Loogic, Javier ha estado en alguna polémica que otra sobre las entradas patrocinadas en blogs, y me ha ayudado a quitarme los complejos de hablar bien de un producto comercial.

Hace tres semanas me compré un Nokia E71, el cual, con un contrato de permanencia de año y medio, me costó 199€, en tres semanas, un adicto a las chucherías electrónicas como yo ya ha tenido tiempo de probarlo.

El E71 hace todo y casi todo bien, sólo le pongo una pega y es la lentitud que tienen los programas de geoposicionamiento, en concreto Google maps y Nokia maps, ambos funcionan muy lentamente. Ahora bien, el resto es muy bueno, a saber:

es pequeño y no es feo

el teclado qwerty funciona bien y la pantalla es adecuada

la cámara es buena para lo que hay hoy

el wifi, bluetooth y 3G van bien

el sonido es muy bueno

y hay un montón de aplicaciones gratuitas

Este móvil me ha hecho darme cuenta del enorme potencial que tiene llevar Internet en el bolsillo.