Observatorio de CENATIC

Equipo, redes
  • Increase font size
  • Default font size
  • Decrease font size

Open Smart Cities II: Big Data de Código Abierto

E-mail Imprimir

Este artículo es la segunda entrega de una serie que aborda diferentes ámbitos tecnológicos relacionados con las ciudades inteligentes, como la Internet de la Cosas, el Cloud, el Big Data o las propias aplicaciones de la Smart City, desde el punto de vista del software de código abierto y libre. En este artículo analizamos el papel de las tecnologías Big Data open source como herramienta fundamental de las Smart Cities.

El primer artículo está disponible en el siguiente enlace: Open Smart Cities I: La Internet de las Cosas Abierta  

Read the post in English unitedkingdom

 

Big Data para Ciudades Inteligentes: una breve aproximación

¿Qué implicaciones tiene el Big Data para las ciudades? ¿Cómo pueden las tecnologías Big Data contribuir a que las ciudades sean más inteligentes? ¿Qué papel está jugando el software de código abierto en el desarrollo del Big Data en el contexto de las Samrt Cities?

Los datos producidos por la ciudadanía, los sistemas y las cosas de la ciudad en general, son los recursos individuales más escalables y disponibles para los stakeholders de la Smart City. Este gran conjunto de datos, denominado Big Data, es constantemente capturado a través de sensores y de fuentes de datos abiertas. Cada vez hay disponible más servicios de datos para los funcionarios y gestores municipales, los servicios públicos y la ciudadanía en general, que permiten el acceso y el uso eficiente de grandes volúmenes de datos, un requisito necesario para las Smart Cities1.

Definiendo Big Data

Gartner define “Biga data” como un conjunto de datos de gran volumen, de gran velocidad y procedente de gran variedad de fuentes de información que demandan formas innovadoras y efectivas de procesar la información2.

IBM explica que el concepto de Big Data aplica a toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales. Sin embargo es importante entender que las bases de datos convencionales son una parte importante y relevante de las soluciones analíticas. Además, este gran volumen de información existe en una gran variedad de datos, que pueden ser representados de diversas maneras en todo el mundo, por ejemplo de dispositivos móviles, audio, video, sistemas GPS, incontables sensores digitales en equipos industriales, automóviles, medidores eléctricos, veletas, anemómetros, etc., los cuales pueden medir y comunicar el posicionamiento, movimiento, vibración, temperatura, humedad y hasta los cambios químicos que sufre el aire, de tal forma que las aplicaciones que analizan estos datos requieren que la velocidad de respuesta sea muy rápida para lograr obtener la información correcta en el momento preciso.3

Así pues, nuestras ciudades están llenas de información, generada por fuentes heterogéneas en diferentes formatos, granularidad, dinamicidad y calidad. El conocimiento de este espacio de información complejo es vital para la creación de servicios de Smart City y está ligado no sólo a las cuestiones tecnológicas que subyacen a la centralización, almacenamiento, transformación y análisis de la información, sino que se extiende a cuestiones como la seguridad y la propiedad de los datos generados en la cuidad, la interoperabilidad, etc.

¿Cómo son los datos de la Smart City?

Ajit Jaokar, de Open Gardens en su artículo “Big data for Smart cities – How do we go from Open Data to Big Data for Smart cities”4 explica detalladamente el tipo de datos que generan las ciudades y su relación con el Big Data.

Basándose en el modelo “mind over matter” de Barry Devli publicado en O Reilly Strata5, Jaokar clasifica los datos generados en la Smart City en “duros”, “blandos” y “compuestos”. En el siguiente gráfico vemos cada tipo de dato con más detalle.

 

 

 

 
alt

La pirámide inferior representa los “datos duros” de la ciudad. En el primer nivel tenemos los datos recogidos principalmente en el mundo físico, el mundo de los datos de medición de la materia, de sensores, etc. En el segundo nivel estarían los datos de eventos físicos en los que entra en juego la interacción humana (denominados “atomic data”). Finalmente, en el tercer nivel, encontraríamos los datos creados a partir de la manipulación matemática de los datos del nivel anterior “atomic data” y que se utilizan generalmente para obtener información más significativa, a partir de la combinación de los mismos y su manipulación. En este tipo de datos entrarían las métricas de la ciudad, los metadatos o los Indicadores Calve de Desempeño.

 

Por el contrario, la información de la parte superior de la pirámide es el reino de la mente de la Smart City. La información procedente de la interacción humana en sociedad. Se trata de "información blanda", menos estructurada y que requiere un tratamiento estadístico y analítico más especializado.

En el primer nivel tenemos lo que Devil denomina “Multiplex data” que sería la información generada por la interacción social humana, como datos de localización, datos de sensores de dispositivos móviles, informes emitidos por los ciudadanos, o tags apuntados por ellos. En un segundo nivel, estarían los datos textuales, por ejemplo, los mensajes de Twitter.

En la intersección de estas dos pirámides estarían los “datos compuestos” de la ciudad y que son una combinación de información dura y blanda y que se compondrían de datos vinculados (linked data)6, datos de los medios sociales y los datos estructurados. Los datos compuestos son la categoría de datos de mayor interés en el ámbito de Big Data. Contienen mucha de la información de los medios sociales, una combinación de datos web duros y datos blandos textuales, así como datos multimedia de fuentes tales como Twitter, Facebook, etc.

Para aprovechar toda esta gran cantidad de información de la ciudad y generar servicios de valor para sus ciudadanos es necesario “empequeñecer” el Big Data, es decir, hacerlo accesible a los ciudadanos7. Y aquí es donde entra en juego el concepto de Open Data, en relación al Big Data.

Los datos abiertos, son realmente abiertos si son accesible, es decir, fáciles de obtener y fáciles de entender. Por lo tanto el pre-procesamiento, el almacenamiento y el procesamiento posterior de los datos que permite la tecnología Big Data son cuestiones importantes a la hora de desplegar estrategias de Open Data en el marco de la Smart City.

No abordaremos en este artículo el paradigma Open Data (lo dejaremos para otro momento), sólo señalar, siguiendo a Gartner, que si el Big Data hace a las organizaciones inteligentes, el Open Data las hace ricas8 y esto supone una gran oportunidad para las ciudades, especialmente en este periodo de crisis económica.

Los datos son el ingrediente básico de los servicios en el marco de la Smart City, por eso resulta tan importante el desarrollo de estrategias Open Data para las ciudades que no den la espalda a los datos generados por la propia ciudadanía, ya que en ese caso, estariamos perdiendo información muy relevante y la oportunidad de generar riqueza social, ambiental, económica y por tanto calidad de vida.

Como apunta Andrea di Maio de Gartner, para que las Smart Cities puedan proveer servicios de valor añadido basados en datos es necesario integrar la gestión de los datos producidos por los medios sociales en las estrategias Open Data9 y desplegar las tecnologías Big Data más adecuadas que faciliten su tratamiento: extracción, homogeneización, almacenamiento, análisis y visualización en estructuras que sean de fácil acceso.

Algunas grandes cifras para Big Data

Un recorrido por las cifras de esta tecnología arroja datos que muestran el gran impacto económico, social y en innovación subyacente al Big Data.

De aquí al 2016, las empresas TI gastarán 232 billones de dolares en hardware, software y servicios relacionados con el Big Data. En 2012, del total de la cifra de negocio generada por la venta de nuevo software, 5.5 billones proceden directamente de las demandas de nuevas funcionalidades del Big Data. Y esta cifra de negocio crecerá una media de un 16% anual hasta el 2016. El subsegmento que está recibiendo mayor inversión en Big Data es el análisis de redes sociales y las analíticas de contenido, con un 45% más de gasto cada año10. Este crecimiento está demandando un nuevo tipo de profesional “el cientifico/a de datos”, una profesión al alza11 que va más allá del experto en Data warehouse o Business Intelligence.

“A Comprehensive List of Big Data Statistics” 12 es una excelente recopilación de estadísticas de diversas fuentes, sobre Big Data que nos hacen comprender la magnitud del fenómeno que estamos analizando. Algunas de las más significativas son las siguientes:

  • En la actualidad en el universo digital existen 2.7 Zetabytes de datos.

  • El gobierno de Obama está invirtiendo 200 millones de dolares en proyectos de investigación Big Data.

  • IDC estima que en 2020, las transacciones comerciales en Internet-negocio-a-negocio y negocio-a-consumidor - alcanzará 450 mil millones por día.

  • Facebook almacena, registra, y analiza más de 30 Petabytes de datos generados por el usuario.

  • El 94% de los usuarios de Hadoop realiza análisis de grandes volúmenes de datos que no eran posibles antes, 88% analizar los datos con más detalle, mientras que el 82% actual puede retener más de sus datos.

  • Más de 5 millones de personas están llamando, enviando mensajes de texto, twitteando y navegando desde los teléfonos móviles en todo el mundo.

  • Descifrar el genoma humano originalmente tardó 10 años en proceso, ahora se puede lograr en una semana.

  • En las economías desarrolladas de Europa, los administradores públicos podría ahorrar más de € 100 mil millones de € en mejorar la eficiencia operativa sólo mediante el uso de tecnologías Big Data, sin incluir en esta estimación el uso de Big Data para reducir el fraude y los errores y aumentar la recaudación de los ingresos fiscales.

  • La existencia de datos deficientes tanto en las empresas, como en el sector público le cuesta a la economía de EE.UU. $ 3,1 billón de dólares al año.

Finalmente, con respecto a España, apuntar brevemente que según el estudio de la consultora IDC, el Big Data se encuentran en una situación incipiente, con apenas el 4,8% de las compañías españolas utilizando este tipo de tecnologías en sus procesos de negocio. Las previsiones apuntan a que de aquí a 2014 su uso podría crecer en nuestro país alrededor del 304%.13

Así pues, lo que conocemos ahora del Big Data es sólo la punta del iceberg de lo que Gartner afirma que será la “nueva normalidad”. En este sentido Mark Beyer de Gartner señala que en el 2020 "las funcionalidades y características Big Data serán parte normal de la oferta de productos de las empresas tradicionales proveedoras de soluciones TI”.

Las Tecnologías Big Data de Código Abierto

Desde el punto de vista tecnológico, Big Data es sinónimo de tecnologías como Hadoop14 y bases de datos NoSQL15 incluido Mongo16 (almacenamiento de documentos) y Cassandra17 (bases de datos claves/valor). El software de código abierto es clave en este ámbito. Actualmente en el mercado hay miles de tecnologías de código abierto y algunos de sus productos están revolucionando los cimientos del Big Data.

A continuación presentamos una selección de los productos de código abierto Big Data más importantes. Al igual que en el artículo anterior sobre IoT, no se trata de una lista exhaustiva, sino de una primera aproximación para mostrar el estado del arte de la tecnología de código abierto en el campo del Big Data.

Apache Hadoop

Apache Hadoop es un marco de desarrollo de código abierto que permite el procesamiento de grandes conjuntos de datos, de manera distribuida a través de un grupo o cluster de computadoras, usando un modelo de programación sencillo.

Fue creado por Doug Cutting para apoyar su trabajo en Nutch18, un motor de búsqueda de código abierto. El objetivo era satisfacer las necesidades de procesamiento multimáquina de Nutch, para lo cual Cutting implementó el paradigma computacional MapReduce19, donde la aplicación se divide en muchos pequeños fragmentos de trabajo, cada uno de los cuales se pueden ejecutar o volver a ejecutar en cualquier nodo del clúster. Además, proporciona un sistema de archivos distribuido que almacena los datos en los nodos de cómputo, produciendo un alto ancho de banda agregado en todo el clúster. Ambos, map/reduce y el sistema de archivos distribuidos, están diseñados de manera que las fallas de nodo se gestionan automáticamente mediante el framework.

Hadoop, está disponible bajo la licencia Apache 2.0, siendo es en la actualidad una de las tecnologías más populares para el almacenamiento de los datos estructurados, semi-estructurados y no estructurados que forman Big Data. Inspirado en los documentos Google para MapReduce y Google File System (GFS) es un proyecto de alto nivel Apache que está siendo construido y usado por una comunidad global de contribuidores, mediante el lenguaje de programación Java. Yahoo! ha sido el mayor contribuidor al proyecto, y usa Hadoop extensivamente en su negocio20.

 

Más información en: http://hadoop.apache.org/

 

MapReduce

MapReduce21 es un modelo de programación para el procesamiento de grandes conjuntos de datos, y el nombre de la implementación del modelo por Google. MapReduce es usado para hacer computación distribuida sobre clusters de servidores.

El nombre del framework está inspirado en los nombres de dos importantes métodos, macros o funciones en programación funcional: Map y Reduce. MapReduce ha sido adoptado mundialmente como una implementación de código abierto denominada Hadoop, su desarrollo fue liderado inicialmente por Yahoo (en la década de 2010 lo es por el proyecto Apache). Se han escrito implementaciones de librerías de MapReduce en diversos lenguajes de programación como C++, Java, Python.

Más información en: http://research.google.com/archive/mapreduce.html

http://www.youtube.com/watch?v=8wjvMyc01QY

 

Storm

Storm es sistema de computación distribuida en tiempo real libre y de código abierto, nacido en el seno de Twitter. Storm hace fácil procesar de manera fiable flujos no estructurados de datos, haciendo en el ámbito del procesamiento en tiempo real, lo que hizo Hadoop para el procesamiento por lotes.

Storm es simple, se puede utilizar con cualquier lenguaje de programación y cuenta con multitud de aplicaciones: análisis en tiempo real en línea, aprendizaje automático, computación continua, RPC (llamadas a procedimientos remotos), procesos ETL (Extraer, Transformar y Cargar) y más.

Storm es rápido: un punto de referencia que corre a más de un millón tuplas procesados por segundo por nodo. Es escalable y tolerante a fallos, garantiza que sus datos serán procesados y es fácil de instalar y operar.

 

Más información en: http://storm-project.net/

 

Apache Kafka

Kafka es un sistema distribuido de publicación-suscripción de mensajería que ofrece una solución capaz de manejar toda la actividad del flujo de datos y procesar estos datos en un sitio web de gran consumo. Este tipo de datos (páginas vistas, búsquedas y otras acciones del usuario) son un ingrediente clave en la web social actual.

Kafka es un sistema de mensajería desarrollado en LinkedIn para servir como base para su flujo de actividad y la canalización del procesamiento de datos que subyace a esta actividad.

Kafka tiene como objetivo unificar el procesamiento de análisis offline y online, proporcionando un mecanismo para la carga paralela en Hadoop, así como proporciona la capacidad de partición del consumo en tiempo real de un cluster de máquinas.

Las funcionalidades de Kafka son22:

  • Mensajería persistente a estructuras de disco O1 que proporcionan un rendimiento constante en el tiempo, incluso con varios TB de mensajes almacenados.

  • Alto rendimiento: incluso con hardware muy modesto Kafka puede soportar cientos de miles de mensajes por segundo.

  • Soporte para la partición de mensajes a través de los servidores de Kafka y consumo distribuido en un cluster de máquinas consumidores, manteniendo la ordenación por partición

  • Soporte para la carga de datos en paralelo en Hadoop.

Más información: http://kafka.apache.org/

 

HBase

Es el sistema de almacenamiento no relacional para Hadoop. HBase es una base de datos de código abierto, distribuida y escalable para el almacenamiento de Big Data. Está escrita en Java e implementa el concepto de Bigtable23 desarrollado por Google. Así como Bigtable aprovecha el almacenamiento de datos distribuidos proporcionado por el sistema de archivos de Google, Apache HBase Bigtable proporciona capacidades similares sobre Hadoop y HDFS.

Apache HBase es la base de datos que necesitamos para tener acceso aleatorio, de escritura/lectura en tiempo real, a un gran conjunto de datos. El objetivo de este proyecto es el alojamiento de grandes tablas, con miles de millones de filas de X millones de columnas, sobre un cluster de hardware de consumo.

Más información: http://hbase.apache.org/

 

Cassandra

Apache Cassandra24 es una base de datos no relacional distribuida y basada en un modelo de almacenamiento de «clave-valor», escrita en Java, que fue desarrollada originalmente por Facebook. Permite grandes volúmenes de datos en forma distribuida.

Su objetivo principal es la escalabilidad lineal y la disponibilidad. La arquitectura distribuida de Cassandra está basada en una serie de nodos iguales que se comunican con un protocolo P2P con lo que la redundancia es máxima.

Cassandra fue desarrollada por Facebook para fortalecer su funcionalidad Inbox Search, pero en 2010 abandonó el proyecto en favor de Hbase25. Actualmente Cassandra es desarrollado por la Apache Software Foundation y está disponible bajo una licencia Apache 2.0.

En las versiones iniciales utilizaba un API propia para poder acceder a la base de datos. En los últimos tiempos están apostando por un lenguaje denominado CQL (Cassandra Query Language) que posee una sintaxis similar a SQL aunque con muchas menos funcionalidades. Esto hace que iniciarse en el uso de la misma sea más sencillo. Permite acceder en Java desde JDBC.

Entre sus múltiples usuarios26 encontramos a Twitter, que lo usa para su plataforma27. Adobe, que lo usa en su producto Adobe® AudienceManager, una Suite de marketing Digital (DMS) que consolida, activa y optimiza datos procedentes de diversas fuentes direccionables digitalmente28; Ebay que ha aportado por esta solución para el soporte de múltiples aplicaciones con clústers que abarcan varios centros de datos29; o OAuth Authorization service de Ericsson Labs usa Cassandra como base de datos backend30.

 

Más información en: http://cassandra.apache.org/

 

Riak

 Riak es una base de datos NoSQL inspirada en Dynamo, de código abierto, distribuida y que cuenta con una versión comercial. Base de datos clave-valor con algunos metadatos, sin esquema de almacenamiento, tipo de datos agnósticos, lenguaje agnóstico que soporta a través de una api REST y PBC31 varios tipos de lenguaje (Eralng, Javascript, Java, PHP, Python, Ruby...), masterless ya que todos los nodos son iguales, escalable, eventualmente consistente y utiliza map/rediuce y “link”. 32

Riak está diseñado para resolver una nueva clase de problemas de gestión de datos, específicamente los relacionados con la captura, almacenamiento y procesamiento de datos dentro de entornos TI distribuidos y modernos como la nube. Riak puede utilizarse como un “session store”, un sistema de archivo en la nube (similar a Amazon S3), almacenamiento de un gran volumen de información social y multimedia (vídeos, audio etc), como una capa de almacenamiento en caché, para fortalecer soluciones de comercio electrónico distribuidas, para la creación de aplicaciones móviles escalables y confiables, para la gestión de sensores o redes de datos RFID, en la nube para la migración de los sistemas de gestión de bases de datos relacionales heredados (RDBMS) a la nube, o para la gestión de los datos de usuario en los Juegos Online y las redes sociales.33

Multitud de empresas utilizan Riak34. Por ejemplo, GitHub, utiliza esta base de datos NoSQL junto a Webmachine para desarrollar Github Pages35, una funcionalidad que permite publicar contenidos en la web de manera sencilla. Inagist36, confía en Riak como capa de almacenamiento. Esta empresa, que analiza el contenido de twitter en tiempo real migró a Riak desde Cassandra cuando ésta empezó a cobrar por ciertas funcionalidades. En UK, el proveedor cloud Brightbox, utiliza Riak37 para varios proyectos internos, entre los cuales el más grande es un almacén de registro centralizado y buscable.

Más información en: http://docs.basho.com/

 

MongoDB

MongoDB38es un sistema de base de datos NoSQL orientado a documentos, desarrollado bajo el concepto de código abierto. MongoDB forma parte de la nueva familia de sistemas de base de datos NoSQL que almacena los datos no en tablas, sino que configura estructuras de datos en documentos tipo JSON39 con un esquema dinámico (MongoDB llama ese formato BSON40), haciendo que la integración de los datos en ciertas aplicaciones sea más fácil y rápida.

El desarrollo de MongoDB empezó en octubre de 2007 por la compañía de software 10gen. Ahora MongoDB es una base de datos lista para su uso y con múltples características. Puede utilizarse en diferentes y múltiples ámbitos: archivos, infraestructura cloud, gestión de contenidos, comercio electrónico, educación. Infraestructuras, juegos, educación, almacenamiento de metadatos, estadísticas en tiempo real, redes sociales, etc.

Esta base de datos que soporta el almacenamiento de millones de documentos es muy utilizada a nivel empresarial41. Algunas de las empresas que la tienen en producción son la MTV Network42 que lo utiliza en su gestor de contenidos; Craiglist43 para el archivo de documentos o Disney44 como repositorio de su plataforma de juegos.

A nivel gubernamental encontramos varias experiencias, como la de de GOV.UK, que empezó utilizando MySQL y migró a MongoDB cuando advirtieron que era más adecuado ya que la mayoría del contenido estaba centrado en documentos45. También en UK, el Archivo Nacional, que está consolidando y unificando en uno sólo sus números archivos electrónicos, utilizan Mongo DB sobre una pila de software de Microsoft46.

Más información en: http://www.10gen.com/

 

Neo4j

Neo4j es una base de datos de gráficos, de código abierto soportada por Neo Technology. Neo4j almacena los datos en nodos conectados por relaciones dirigidas y tipificadas, con las propiedades de ambos, también conocidas como Gráfico de Propiedad (Property Graph).

Neo4j es:

  • intuitivo, utilizando un modelo gráfico para la representación de datos

  • confiable, con transacciones con semántica ACID completas.

  • durable y rápido, utilizando un motor de almacenamiento nativo personalizado basado en disco.

  • masivamente escalable, de hasta varios millones de nodos/ elaciones/propiedades.

  • con alta disponibilidad, cuando se distribuye a través de múltiples máquinas.

  • expresivo, con un lenguaje potente “graph query language” con legibilidad humana.

  • rápido, con un potente marco de desarrollo para las consultas de grafos de alta velocidad

  • embebido en unos pocos ficheros jars.

  • simple, accesible medante una adecuada interfaz REST conveniente o una API orientada a objetos Java.

Neo4j una de las bases de datos de grafos líderes en el mundo. Entre sus usuarios se encuentran47 empresas como Infojobs, Lufthansa, Mozilla, Accenture, Cisco o Adobe etc.

 

Más información en: http://www.neo4j.org/learn/neo4j

 

Apache CouchDB

Apache CouchDB, es una base de datos de código abierto, NoSQL que emplea JSON para documentos, JavaScript como lenguaje de consulta para MapReduce y HTTP como API.

CouchDB fue creada en 2005 por Damien Katz como un sistema de almacenamiento para una base de datos de objetos de gran escala. Actualmente se distribuye bajo una licencia Apache License 2.0 y es utilizado por múltiples organizaciones48, como la BBC que usa CouchDB para su plataforma dinámica de contenidos, mientras que Credit Suisse's lo utiliza para almacenar los detalles de configuración de su framework Python de mercado de datos49.

Más información en: http://couchdb.apache.org/

 

HyPertable

Hypertable50 es un Sistema Gestor de Bases de Datos de código abierto desarrollado en C++ por la compañía Zvents, basado en el modelo Big Table de Google. Es un sistema de almacenamiento de datos distribuido, escalable, no relacional, no soporta transacciones y de alto desempeño, ideal para aplicaciones que necesitan manejar datos que evolucionan rápidamente y diseñado para soportar una gran demanda de datos en tiempo real. Entre sus clientes51 se encuentran empresas como Ebay, Tiscali o Reddiff.com

Más información en: http://www.hypertable.org/.

 

Hive

Hive es un sistema data warehouse para Hadoop que facilita resúmenes de datos, consultas ad-hoc, y el análisis de grandes conjuntos de datos almacenados en los sistemas de archivos compatibles con Hadoop.

Hive proporciona un mecanismo para proyectar la estructura sobre estos datos y consultar los datos utilizando un lenguaje SQL, llamado HiveQL. Al mismo tiempo, este lenguaje también permite a los programadores tradicionales de Map Reduce conectar con sus mappers personalizados y reductores cuando es inconveniente o ineficiente expresar esta lógica en HiveQL.

 

Más información en: http://hive.apache.org/

http://www-01.ibm.com/software/data/infosphere/hadoop/hive/

 

Cascading

Cascading es un framework de aplicaciones Java que permite a los desarrolladores desarrollar rápida y fácilmente aplicaciones para el Análisis de Datos y la Gestión de loa Datos y que se pueden desplegar y gestionar a través de una variedad de entornos de computación. Cascading funciona perfectamente con Apache Hadoop 1.0 y distribuciones API compatibles.

 

Más información en: http://www.cascading.org/about/

 

Apache Drill

Apache Drill52 es un proyecto en estado de incubación de la Fundación Apache, cuyo objetivo es reducir las barreras a la hora de adoptar un nuevo conjunto de APIs para Big Data. Drill es un sistema distribuido para el análisis interactivo de grandes conjuntos de datos, que sería la versión de código abierto de Dremel de Google (el cuál está disponible bajo IaaS como Google BigQuery53), y que además cuenta con la flexibilidad necesaria para soportar una amplia gama de lenguajes de consulta, formatos de datos y fuentes de datos.

Está diseñado para procesar eficientemente los datos anidados y con el objetivo de escalar desde 10.000 o más servidores y para ser capaz de procesar petabyes de datos y trillones de registros en segundos.

 Muchas organizaciones tienen la necesidad de ejecutar aplicaciones intensivas de datos, incluyendo el procesamiento por lotes, procesamiento de flujo y análisis interactivo. En los últimos años los sistemas de código abierto han surgido para atender la necesidad de procesamiento por lotes escalables (Apache Hadoop) y procesamiento de flujos (Storm, Apache S4). En 2010, Google publicó un documento titulado "Dremel: Análisis Interactivo de conjuntos de datos de escala Web"54, que describe un sistema escalable utilizado internamente para el análisis interactivo de datos anidados. Ningún proyecto de código abierto ha reproducido con éxito las capacidades de Dremel.

Apache Drill representa un gran paso adelante para las organizaciones que buscan aumentar su capacidad de procesamiento Big Data con consultas interactivas a través de conjuntos de datos masivos.

Más información en: http://incubator.apache.org/drill/

 

Pig/Pig Latin

Pig fue desarrollado inicialmente en Yahoo! para permitir a los usuarios de Hadoop centrarse más en el análisis de grandes conjuntos de datos y dedicar menos tiempo a tener que escribir programas map¬per y reducer. Al igual que los cerdos, que comen casi de todo, el lenguaje de programación Pig está diseñado para manejar cualquier tipo de datos, de ahí el nombre. Pig está formado por dos componentes: el primero es el lenguaje en sí mismo, que se llama PigLatin, y el segundo es un entorno de ejecución donde los programas PigLatin se ejecutan55.

 

Más información en: http://pig.apache.org/

http://www.youtube.com/watch?v=jxt5xpMFczs

 

R

R es el lenguaje de programación líder en el mundo56 para el análisis estadístico y la realización de gráficos. R, además de ser un lenguaje para la minería de datos es un entorno de programación. Se trata de un proyecto GNU, que es similar al lenguaje y al entorno de programación S desarrollado en Bell Laboratories (antes AT&T, ahora Lucent Technologies) por John Chambers y sus colegas.

R ofrece una gran variedad de técnicas estadísticas (modelos lineales y no lineales, tests estadísticos, análisis de series temporales, clasificación, clustering, ...) y técnicas gráficas, y es altamente extensible. R está disponible como software libre bajo los términos de la Licencia de GNU Free Software Foundation pública general en forma de código fuente. Se compila y se ejecuta en una amplia variedad de plataformas UNIX y sistemas similares (incluyendo FreeBSD y Linux), Windows y MacOS.

En cuanto al entorno de programación R, se trata de un conjunto integrado de servicios de software para la manipulación de datos, cálculo y representación gráfica. Incluye un manejo eficaz de datos y facilidades de almacenamiento, un conjunto de operadores para los cálculos de matrices, una amplia, coherente e integrada colección de herramientas intermedias para el análisis de datos, facilidades gráficas para el análisis y visualización de datos ya sea en pantalla o en papel, y un lenguaje de programación bien desarrollado, sencillo y eficaz que incluye condicionales, bucles, funciones recursivas definidas por el usuario y funciones de entrada y de salida.

R es más que un sistema de estadísticas, es un entorno en el que las técnicas estadísticas se aplican. R puede ser extendido fácilmente a través de diversos paquetes.

En cuanto a su aplicación para el análisis de Big Data, multitud de compañías y organizaciones, como Bing, Facebook, Google, The New York Times o Mozzilla han elegido R para el análisis de grandes conjuntos de datos.57

Más información en: http://www.r-project.org/

 

Redis

Redis es un motor de base de datos en memoria, basado en el almacenamiento en tablas de hashes (llave, valor) pero que opcionalmente puede ser usada como una base de datos durable o persistente. Está escrito en ANSI C por Salvatore Sanfilippo quien es patrocinado por VMware.1 2 y esta liberado bajo licencia BSD58.

Más información en: http://redis.io/

 

HCatalog

HCatalog, un sistema de gestión de metadatos y tablas que simplifica el intercambio de datos entre Apache Hadoop y otros sistemas de datos empresariales. También permite a los usuarios escribir sus aplicaciones sin preocuparse por cómo y dónde se almacenan los datos, aislando a los usuarios del esquema de almacenamiento y los cambios de formato que puedan producirse.59

 

Más información en: http://incubator.apache.org/hcatalog/

 

Oozie

Oozie, un sistema de procesamiento del flujo de trabajo que permite a los usuarios definir una serie de trabajos escritos en varios lenguajes, como Map Reduce, Pig y Hive, entonces inteligentemente los relaciona entre sí. Oozie permite a los usuarios especificar, por ejemplo, que una determinada consulta sólo debe iniciarse después de que determinados trabajos previos sobre los datos se hayan completado60.

 

Más información en: http://oozie.apache.org/

 

Talend Open Studio for Big Data

Talend ofrece un producto Big Data de código abierto potente y versátil denominado Talend Open Studio for Big Data que facilita el trabajo con las tecnologías de Big Data y ayuda a impulsar y mejorar el rendimiento del negocio. El producto, que fue lanzado en 2006, simplifica el desarrollo de grandes volúmenes de datos y facilita la organización e instrumentación requerida por estos proyectos.

Talend Open Studio for Big Data conecta Hadoop con el resto de las aplicaciones empresariales beneficiando enormemente a los científicos de datos en su capacidad para acceder y analizar grandes cantidades de datos de manera eficiente y eficaz. Talend Open Studio para Big Data es un componente central de la plataforma de Talend para Big Data61, que permite a las empresas aumentar su productividad mediante la implementación de soluciones Big Data en horas, en lugar de semanas o meses. Compatible con todas las versiones de Apache Hadoop, Talend Open Studio para Big Data está integrado en en la Plataforma de Datos Hortonworks62. Además de los más de 450 conectores que Talend proporciona para la integración de datos empresariales en Hadoop, tales como el Sistema de archivos distribuido Hadoop (HDFS), Pig, HBase, Sqoop y Hive, Talend Open Studio para Big Data ahora incluyen HCatalog y Oozie (cuya descripción y referncias pueden verse en este mismo documento.

La version open source de la solución Big Data de Talend tiene licencia Apache. En enero de 2012, el producto había registrado 20 millones de descargas y contaba con alrededor de 3500 clientes en el mundo.63

 

Más información en: http://www.talend.com/products/talend-open-studio

 

Pentaho Big Data

Pentaho vincula firmemente la integración de datos con completas analíticas de negocio para Big Data, soportando Hadoop, NoSQL y bases de datos analíticas. Pentaho ofrece una completa solución de análisis Big Data que soporta todo el proceso de análisis de datos desde ETL e integración de datos al análisis en tiempo real y visualización de Big Data.

La historia de Pentaho Big Data gira alrededor de Pentaho Data Integration AKA Kettle. Kettle es un potente motor ETL que usa un enfoque de metadatos. El motor Kettle ofrece servicios de datos y está integrado en la mayoría de las aplicaciones de la suite Pentaho, desde Spoon, Kettle designer, a Pentaho report Designe. diseñador de informe Pentaho.

Los componentes de Pentaho Big Data son open source, Con el objetivo de jugar un buen papel con el ecosistema de código abierto de Hadoop y hacer de Kettle el mejor y más extendido motor ETL en el espacio Big Data, Pentaho ha puesto todos los componentes de Hadoop y NoSQL en código abierto, comenzando con la liberación de la versión 4.364.

Pentaho ofrece65:

 

  • Continuidad completa desde el acceso a los datos a la toma de decisiones: completa integración de datos y plataforma de análisis de negocio para cualquier sistema de almacenamiento Big Data.

  • Más rápido desarrollo y más rápida ejecución: desarrollo visual y ejecución distribuida.

  • Análisis instantáneo e interactivo: sin código, ni necesidad de ETL (extrer, transformar, y cargar)Desde la preparación y el modelado de los almacenes de datos para el análisis, visualización de datos, exploración y análisis predictivo, Pentaho Business Analytics le permite recoger los patrones más significativos que están enterrados en los grandes volúmenes de datos, tanto estructurados, como los no estructurados.

 

Pentaho proporciona el conjunto adecuado de herramientas para cada usuario, todo dentro de una integración de estructura rígida de datos y la plataforma de análisis que soporta el ciclo de vida completo de Big Data. Para TI y desarrolladores, Pentaho ofrece un completo entorno de diseño visual para simplificar y acelerar la preparación de datos y modelización. Para los usuarios empresariales, Pentaho proporciona una visualización y exploración de datos. Y para los analistas y científicos de datos, Pentaho proporciona el descubrimiento de datos completo, exploración y análisis predictivo.

Beachmint, Mozzilla, ExactTarget, Shareable Ink o TravelTainment, entre otras organizaciones, están utilizando la solución Pentaho para Big Data66.

Más información en: http://www.pentahobigdata.com/overview

 

Jaspersoft para Big Data Open Source

La suit de Business Intelligence de Jaspersoft para Big Data posee una arquitectura muy avanzada e independiente respecto a las fuente de datos. Eso le otorga la capacidad de ser inmediatamente compatible con múltiples soluciones Big Data como Hadoop, MongoDB, y bases de datos NoSQL (Not-Only-SQL) o analíticas.

Jaspersoft ofrecen una suite de Business Intelligence con herramientas de generación de informes y análisis ad hoc intuitivas e interactivas. Desde Jaspersoft es posible conectarse en tiempo real mediante conectores nativos a prácticamente todas las herramientas de bases de datos masivos sin coste añadido alguno.

Estos conectores se pueden descargar de forma gratuita. Jaspersoft monitoriza estas descargas produciendo un índice denominado "big data index", un índice de las tecnologías de Big Data más utilizadas mensualmente que ofrece una visión muy interesante en cuanto a las tendencias de adopción de las herramientas de Jaspersoft.

Jaspersoft cuenta con una amplia red de partners tecnológicos en Big Data, como IBM, 10gen, basho y Cloudera entre otros.

Más información se recomienda visitar http://www.jaspersoft.com/bigdata

 

Apache Mahout

Es un proyecto que permite construir bibliotecas escalables de aprendizaje automático. Construido sobre el potente paradigma map/reduce del proyecto Apache Hadoop, Mahout permite resolver problemas como clustering, filtrado colaborativo y clasificación de terabytes de datos sobre miles de ordenadores.

Mas información en http://mahout.apache.org/

 

RapidMiner

RapidMiner67(anteriormente, YALE, Yet Another Learning Environment) es un programa informático de código abierto para el análisis y minería de datos. Permite el desarrollo de procesos de análisis de datos mediante el encadenamiento de operadores a través de un entorno gráfico. Se usa en investigación educación, capacitación, creación rápida de prototipos y en aplicaciones empresariales y su licencia es la AGPL.

RapidMiner proporciona más de 500 operadores orientados al análisis de datos, incluyendo los necesarios para realizar operaciones de entrada y salida, preprocesamiento de datos y visualización. También permite utilizar los algoritmos incluidos en Weka68.

Sus características son las siguientes: desarrollado en Java; multiplataforma; representación interna de los procesos de análisis de datos en ficheros XML; permite el desarrollo de programas a través de un lenguaje de script; puede usarse de diversas maneras: a través de un GUI, en línea de comandos, en batch (lotes), desde otros programas a través de llamadas a sus bibliotecas; extensible; incluye gráficos y herramientas de visualización de datos, dispone de un módulo de integración con R.

Más información en: http://rapid-i.com/content/view/181/190/

 

Hadoop Distributed File System

El Hadoop Distributed File System (HDFS) es un sistema de archivos distribuido, escalable y portátil escrito en Java para el framework Hadoop.

El HDFS almacena archivos grandes (el tamaño ideal de archivo es de 64 MB9 ), a través de múltiples máquinas. Consigue fiabilidad mediante replicado de datos a través de múltiples hosts, y no requiere almacenamiento RAID en ellos. Con el valor de replicación por defecto, 3, los datos se almacenan en 3 nodos: dos en el mismo rack, y otro en un rack distinto. Los nodos de datos pueden hablar entre ellos para reequilibrar datos, mover copias, y conservar alta la replicación de datos. HDFS no cumple totalmente con POSIX porque los requerimientos de un sistema de archivos POSIX difieren de los objetivos de una aplicación Hadoop, porque el objetivo no es tanto cumplir los estándares POSIX sino la máxima eficacia y rendimiento de datos.

Más información en: http://hadoop.apache.org/

 

GlusterFS

GlusterFS es un sistema de archivos de código abierto distribuido que es capaz de escalar a varios petabytes (actualmente 72 brontobytes) y manejar miles de clientes.

GlusterFS permite agregar varios servidores de archivos sobre Ethernet o interconexines Infiniband RDMA en un gran entorno de archivos de red en paralelo. El diseño del GLusterFS se basa en la utilización del espacio de usuario y de esta manera no compromete el rendimiento. Se pueden utilizar en una gran variedad de entornos y aplicaciones como computación en nube, ciencias biomédicas y almacenamiento de archivos. El GlusterFS está licenciado bajo la licencia GNU General Public License versión 3.

Gluster Inc fue el principal patrocinador comercial del GlusterFS, el cual ofrece tanto productos comerciales como apoyo para desarrollo de soluciones libres basadas en el GlusterFS. En Octubre de 2011, fue anunciada la adquisición de Gluster Inc por Red Hat Inc.70

Más información en: http://www.gluster.org/about/

 

Lucene

Lucene71 es una API de código abierto para recuperación de información, originalmente implementada en Java por Doug Cutting. Está apoyado por el Apache Software Foundation y se distribuye bajo la Apache Software License. Lucene tiene versiones para otros lenguajes incluyendo Delphi, Perl, C#, C++, Python, Ruby y PHP.

Es útil para cualquier aplicación que requiera indexado y búsqueda a texto completo. Lucene ha sido ampliamente usado por su utilidad en la implementación de motores de búsquedas.

El estándar de facto de las librerías de búsqueda de big data.

Más información: http://lucene.apache.org/core/

 

Solr

Solr es una plataforma de búsqueda open source basada en el proyecto Apache Lucene. Sus características principales incluyen: potente búsqueda de texto completo, resaltado de afectados, búsqueda facetada, clustering dinámico, integración de bases de datos, y manipulación de documentos de texto enriquecido (por ejemplo, Word, PDF). Proporciona búsqueda distribuida y replicación de índices, ademásSolr es altamente escalable. Solr es el motor de búsqueda empresarial más populare. Solr está escrito en Java y se ejecuta como un servidor de búsqueda de texto completo independiente dentro de un contenedor de servlets como Apache Tomcat o Jetty. Solr Lucene utiliza la biblioteca Java de búsqueda para la indexación de texto completo y de búsqueda, y tiene como REST HTTP / XML y JSON APIs que hacen que sea fácil de utilizar desde prácticamente cualquier lenguaje de programación. La potente configuración externa de Solr permite que sea adaptado a casi cualquier tipo de aplicación Java sin codificación, y tiene una arquitectura plugin extensa cuando se requiere una personalización más avanzada.


Apache Lucene Solr y Apache son producidos por el mismo equipo de desarrollo de Apache Software Foundation ya que los dos proyectos se fusionaron en 2010. Es común referirse a la tecnología o los productos como Lucene / Solr o Solr / Lucene.

 

Más información en: http://lucene.apache.org/solr/

 

ElasticSearch

Basado en Apache Lucene, ElasticSearch es un servidor de búsqueda de código abierto distribuido y basado en REST. Es una solución escalable que soporta búsquedas en tiempo real y es multi-entidad sin una configuración especial. Ha sido adoptado por varias compañías, incluyendo StumbleUpon y Mozilla. ElasticSearch está disponible bajo la licencia Apache 2.0.

Más información: http://www.elasticsearch.org/

 

Sqoop

Sqoop es una aplicación con interfaz de línea de comandos para la transferencia de datos entre bases de datos relacionales y Hadoop.

Es compatible con las cargas incrementales de una sola tabla o una consulta SQL de forma libre, así como trabajos guardados que se pueden ejecutar varias veces para importar las actualizaciones realizadas a una base de datos desde la última importación. Las importaciones también se puede utilizar para rellenar las tablas en Hive o HBase. Las exportaciones se puede utilizar para poner los datos de Hadoop en una base de datos relacional. Sqoop se convirtió en un proyecto de nivel superior de Apache en marzo de 2012.

Microsoft utiliza un conector
basado en Sqoop para ayudar en la transferencia de datos desde bases de datos de Microsoft SQL Server a Hadoop. Couchbase también ofrece un Couchbase Server-Hadoop conector mediante Sqoop73

 

Más información en: http://sqoop.apache.org/


Este artículo es la segunda entrega de una serie que aborda diferentes ámbitos tecnológicos relacionados con las ciudades inteligentes, como la Internet de la Cosas, el Cloud, el Big Data o las propias aplicaciones de la Smart City, desde el punto de vista del software de código abierto y libre. El primer artículo está disponible en el siguiente enlace: Open Smart Cities I: La Internet de las Cosas Abierta

 

Fecha: 23/01/2013.

Autora: Ana Trejo Pulido

 


 Referencias

 

1Fuente: http://www.future-internet.eu/home/future-internet-assembly/aalborg-may-2012/31-smart-cities-and-big-data.html

2Fuente: Hype Cycle for Big Data, 2012. Disponible en: http://www.gartner.com/id=2100215

3Fuente: ¿Qué es Big Data? Todos formamos parte de ese gran crecimiento de datos. Disponible en http://www.ibm.com/developerworks/ssa/local/im/que-es-big-data/index.html

4Disponible en: http://www.opengardensblog.futuretext.com/wp-content/uploads/2012/08/Big-Data-for-Smart-cities-How-do-we-go-from-Open-Data-to-Big-Data-for-Smart-cities.pdf

5“Will data warehousing survive the advent of big data?” Disponible en: http://strata.oreilly.com/2011/01/data-warehouse-big-data.html

6Más información en: http://www.od4d.org/2012/10/08/datos-abiertos-y-datos-linkados/

7Fuente: http://www.future-internet.eu/fileadmin/documents/aalborg_documents/Report_session_3.1.pdf

8Para ampliar el tema: http://www.gartner.com/newsroom/id/2131215

9Fuente: http://blogs.gartner.com/andrea_dimaio/2010/02/19/why-do-governments-separate-open-data-and-social-media-strategies/

10Fuente: Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016. Disponible en: http://www.gartner.com/DisplayDocument?ref=clientFriendlyUrl&id=2195915

11Más información disponible en la siguiente infografía: http://mashable.com/2012/01/13/career-of-the-future-data-scientist-infographic/

12Disponible en: http://wikibon.org/blog/big-data-statistics/

13Fuente: http://www.dataprix.com/empresa/prensa/mercado-big-data-empieza-despegar-espana

14Sitio web: http://hadoop.apache.org/

15Sitio web: http://es.wikipedia.org/wiki/NoSQL

16Sitio web: http://www.mongodb.org/

17Sitio web: http://cassandra.apache.org/

18Sitio web: http://nutch.apache.org/

19Más información en: http://es.wikipedia.org/wiki/MapReduce

20Fuente: http://es.wikipedia.org/wiki/Hadoop

21Fuente: http://es.wikipedia.org/wiki/MapReduce

22Fuente: http://unpocodejava.wordpress.com/2012/12/21/

23Más información sobre Big Table, sistema de almacenamiento distribuido para manejar datos estructurados desarrolado por Google, en: http://research.google.com/archive/bigtable.html

24Fuente: http://es.wikipedia.org/wiki/Apache_Cassandra

25Fuente: http://www.networkworld.com/slideshow/51090/#slide7

26En el siguiente enlace está disponible un listado de usuarios de Cassandra: http://www.datastax.com/cassandrausers#all

27Más información en: http://engineering.twitter.com/2010/07/cassandra-at-twitter-today.html

28Más información en en video de presentación de Cassandra en Adobe disponible en: http://www.youtube.com/watch?v=tVbSeNkm8QM&feature=youtu.be

29Más información en: http://www.datastax.com/wp-content/uploads/2012/08/C2012-BuyItNow-JayPatel.pdf

30Fuente: http://www.datastax.com/cassandrausers#all

31Protocol Buffers Client (PBC): http://docs.basho.com/riak/1.0.0/references/apis/protocol-buffers/

32Fuente: http://readwrite.com/2011/02/09/how-3-companies-are-using-nosq

33Fuente: http://basho.com/technology/why-use-riak/

34Ingformación disponible sobre sus casos de uso están disponible en los siguientes sitios: http://basho.com/company/production-users/ y http://readwrite.com/2011/02/09/how-3-companies-are-using-nosq

35Fuente: https://speakerdeck.com/jnewland/github-pages-on-riak-and-webmachine

36Fuente: http://blog.inagist.com/riak-at-inagistcom

37Fuente: http://johnleach.co.uk/words/1063/riak-syslog

38Fuente: http://es.wikipedia.org/wiki/MongoDB

39Más información en: http://es.wikipedia.org/wiki/JSON

40Más información en: http://es.wikipedia.org/wiki/BSON

41En los siguientes enlaces está disponible un listado de sus principales usuarios: http://www.10gen.com/customers y http://www.mongodb.org/display/DOCS/Production+Deployments

42Más información en: http://www.10gen.com/customers/mtv-networks

43Más información en: http://www.10gen.com/presentations/mongodb-craigslist-one-year-later

44Máss información en: http://www.10gen.com/customers/disney

45Fuente: http://digital.cabinetoffice.gov.uk/colophon-beta/

46Fuente: http://www.10gen.com/presentations/mongouk-2011/from-sql-server-to-mongodb

47En ests sitio está disponible un listado de los principales clientes de Neo4j: http://www.neotechnology.com/customers/

48En su wiki encontramos un listado de organizaciones que usan CouchDB para crear software o sitios web: http://wiki.apache.org/couchdb/CouchDB_in_the_wild. En el siguiente sitio se detallan algunos casos de éxito: http://www.couchbase.com/library?type=Case+Studies

49Fuente: http://www.networkworld.com/slideshow/51090/#slide9

50Fuente: http://blog.espol.edu.ec/taws/tag/hypertable/

51Fuente: http://hypertable.com/customers/

52Fuente: http://www.mapr.com/support/community-resources/drill

53Más información en: https://cloud.google.com/products/big-query

54Disponible en: http://research.google.com/pubs/pub36632.html

55Fuente: http://www-01.ibm.com/software/data/infosphere/hadoop/pig/

56Fuente: http://cloudcomputing.sys-con.com/node/2325498

57Fuente: http://www.revolutionanalytics.com/what-is-open-source-r/companies-using-r.php

58Fuente: http://es.wikipedia.org/wiki/Redis

59Más información en: http://incubator.apache.org/hcatalog/

60Más información en: http://oozie.apache.org/

61Más información en: http://www.talend.com/products/big-data

62Hortonworks Data Platform (HDP) es la plataforma de código abierto de gestión de datos para Apache Hadoop. Más información en: http://hortonworks.com/products/hortonworksdataplatform/

63Fuente: http://en.wikipedia.org/wiki/Talend

64Más información en la comunidad de Pentaho Big data: http://wiki.pentaho.com/display/BAD/Pentaho+Big+Data+Community+Home

65Fuente: http://www.pentaho.com/big-data/

66Más información: http://www.pentaho.com/customers/success-stories/

67Fuente: http://es.wikipedia.org/wiki/RapidMiner

68Más información en: http://es.wikipedia.org/wiki/Weka_%28aprendizaje_autom%C3%A1tico%29

69Fuente: http://es.wikipedia.org/wiki/Hadoop#Hadoop_Distributed_File_System

70Fuente: http://es.wikipedia.org/wiki/Gluster_File_System

71Fuente: http://es.wikipedia.org/wiki/Lucene

72Fuente: http://es.wikipedia.org/wiki/Apache_Solr

73Fuente: http://en.wikipedia.org/wiki/SqoRe//

ℼ佄呃偙⁅呈䱍倠䉕䥌⁃ⴢ⼯㍗⽃䐯䑔䠠䵔⁌⸴‰牔湡楳楴湯污⼯久㸢㰊呈䱍ਾ䠼䅅㹄ऊ䴼呅⁁呈偔䔭啑噉∽佃呎久ⵔ奔䕐•佃呎久㵔琢硥⽴瑨汭※档牡敳㵴瑵ⵦ∸ਾ㰉䥔䱔㹅⼼䥔䱔㹅ऊ䴼呅⁁䅎䕍∽䕇䕎䅒佔≒䌠乏䕔呎∽楌牢佥晦捩⁥⸳‶⠠楌畮⥸㸢ऊ匼奔䕌吠偙㵅琢硥⽴獣≳ਾ㰉ⴡਭउ灀条⁥⁻慭杲湩›挲੽उ⁐⁻慭杲湩戭瑯潴㩭〠㈮挱੽उ㩁楬歮笠猠ⵯ慬杮慵敧›硺⁸੽ⴉ㸭ऊ⼼呓䱙㹅㰊䠯䅅㹄㰊佂奄䰠乁㵇攢⵳卅•䥄㵒䰢剔㸢㰊⁐䱁䝉㵎啊呓䙉⁙呓䱙㵅洢牡楧⵮潢瑴浯›挰㭭氠湩ⵥ敨杩瑨›㔱┰㸢䘼乏⁔䅆䕃∽楌敢慲楴湯匠湡≳㰾但呎匠婉㵅㸲慍剰摥捵੥獩愠瀠潲牧浡業杮洠摯汥映牯瀠潲散獳湩⁧慬杲⁥慤慴猠瑥ⱳ愠摮琠敨渠浡੥景愠浩汰浥湥慴楴湯漠⁦桴⁥潭敤祢䜠潯汧⹥䴠灡敒畤散椠⁳祴楰慣汬੹獵摥琠潤搠獩牴扩瑵摥挠浯異楴杮漠汣獵整獲漠⁦潣灭瑵牥⹳⼼但呎㰾䘯乏㹔⼼㹐㰊⁐䱁䝉㵎啊呓䙉⁙呓䱙㵅洢牡楧⵮潢瑴浯›挰㭭氠湩ⵥ敨杩瑨›㔱┰㸢䘼乏⁔䅆䕃∽楌敢慲楴湯匠湡≳㰾但呎匠婉㵅㸲桔੥潭敤獩椠獮楰敲⁤祢琠敨洠灡愠摮爠摥捵⁥畦据楴湯⁳潣浭湯祬甠敳⁤湩昊湵瑣潩慮牰杯慲浭湩Ⱨ愠瑬潨杵⁨桴楥⁲異灲獯⁥湩琠敨䴠灡敒畤散昊慲敭潷歲椠⁳潮⁴桴⁥慳敭愠⁳桴楥⁲牯杩湩污映牯獭㰮䘯乏㹔⼼但呎㰾倯ਾ值䄠䥌乇䨽单䥔奆匠奔䕌∽慭杲湩戭瑯潴㩭〠浣※楬敮栭楥桧㩴ㄠ〵∥㰾但呎䘠䍁㵅䰢扩牥瑡潩慓獮㸢䘼乏⁔䥓䕚㈽䴾灡敒畤散氊扩慲楲獥栠癡⁥敢湥眠楲瑴湥椠慭祮瀠潲牧浡業杮氠湡畧条獥‮⁁潰異慬ੲ牦敥椠灭敬敭瑮瑡潩獩䄠慰档⁥慈潤灯㰮䘯乏㹔⼼但呎㰾倯ਾ⼼佂奄ਾ⼼呈䱍>