Internet de las cosas

INFORMÁTICA Y TELECOMUNICACIONES Internet de las cosas y Big Data: ¿hacia dónde va la industria? • Jon Ander • Pablo García • Karin Quiroga INACAP...
43 downloads 0 Views 612KB Size
INFORMÁTICA Y TELECOMUNICACIONES

Internet de las cosas y Big Data:

¿hacia dónde va la industria?

• Jon Ander • Pablo García • Karin Quiroga

INACAP Puerto Montt, 17 de noviembre de 2015.

Internet de las cosas y Big Data: ¿hacia dónde va la industria?

• Jon Ander • Pablo García • Karin Quiroga

Internet de las cosas y Big Data: ¿hacia dónde va la industria?

INTRODUCCIÓN Si nos remontamos 20 años atrás, cuando la cobertura de internet no estaba masificada, muy pocas personas contaban con ella en sus hogares, e incluso para muchas empresas resultaba un servicio inalcanzable. En ese tiempo los teléfonos personales eran privilegio de muy pocos, transportados en pesadas maletas y con grandes antenas que las generaciones de hoy no logran concebir. Podemos darnos cuenta de que la evolución de las tecnologías ha sido vertiginosa. En la actualidad, estos avances pueden llegar a concentrar, en una misma plataforma, la información de todo un país: población, registros médicos, movilidad, infraestructura, producción, turismo y demás sectores que engloban el llamado “gobierno electrónico”. Lo mismo ocurre en el ámbito privado, ya que las tendencias en los avances de tecnología de información, como Big Data, han permitido a las empresas expandir su conocimiento sobre sus consumidores y usuarios. En el marco de la última cumbre de los países que generan más del 30% de la producción global -Brasil, Rusia, India, China, Sudáfrica-, Rusia propuso la creación de una plataforma única de gobierno electrónico, a fin de generar indicadores conjuntos que permitan tomar decisiones basadas en toda la Big Data de los ciudadanos de cada país. La pregunta que corresponde aquí es: ¿podemos siquiera imaginar los resultados que podría tener para la región unir la fortaleza de cada país en beneficio de todos? Por ejemplo, el liderazgo ingenieril de Brasil con la base científica, industrial y militar de Rusia, así como la fuerza manufacturera de China y el talento en las tecnologías de la información de Sudáfrica, pueden provocar insospechados resultados al respecto. Tal vez nosotros podamos ser testigos de una transición del proceso actual, que consiste en la recolección y sistematización de información hacia la automatización en la toma de decisiones, mediante el uso de datos reales y generados en tiempo real. Para profundizar sobre estas temáticas hemos invitado un grupo de expertos que nos entregarán su visión y así podemos debatir al respecto.

Ciclo de Conferencias en Desarrollo de Capital Humano 6

CONTENIDO LOS EXPOSITORES

8-12

Big Data: nuevos desafíos y nuevas herramientas Jon Ander

13-16

El desafío de implementar una solución de Internet de las Cosas Pablo García

17-21

Internet de las Cosas: una revolución industrial Karin Quiroga

Ciclo de Conferencias en Desarrollo de Capital Humano 7

LOS EXPOSITORES Jon Ander Profesor del Departamento de Sistemas Informáticos y Computación de la Universidad Politécnica de Valencia, España.

Licenciado en Informática (MSc) y Doctor en Informática por la Universitat Politècnica de València (UPV), España, donde ejerce la docencia desde 1997. Es miembro del Centro de Investigación PRHLT (Pattern Recognition and Human Language Technologies) de la UPV. Actualmente es subdirector de Formación Continua en la Escuela Técnica Superior de Ingeniería Informática de la UPV, y director académico del Máster en Big Data Analytics de la UPV. También ha participado en diferentes proyectos de investigación y su principal área de interés es el Aprendizaje Automático (Machine Learning). Dentro de dicha área se ha especializado en Reconocimiento de Patrones y Reconocimiento Automático del Habla. Últimamente está incorporando técnicas de Deep Learning en la mejora del modelado acústico y usando Redes Neuronales de Alta Complejidad (Deep Neural Networks) en tareas de análisis de sentimientos y detección de lenguaje figurativo en textos.

Pablo García Gerente de investigación y Arquitecto del Centro de I+D de Telefónica en Chile.

Es Magíster en Estudios Avanzados de Computación y Magíster en Bioinformática, profesor de Algoritmos en el Magíster en Bioinformática del Programa de Desarrollo de Ciencias

Básicas de Udelar e Instituto Pasteur de Montevideo, Uruguay. Trabajó diez años en Microsoft y anteriormente fue ingeniero senior de Motorola ISG. Fue director y líder técnico de l a e m p re s a U r u d a t a d u r a n t e 1 8 años, implementando soluciones de automatización de procesos en diversos países de Latinoamérica y desarrolló sistemas de misión crítica, tales como sistemas de escrutinio de elecciones nacionales. Sus áreas de interés principal en la informática son los sistemas de workflow y los algoritmos de análisis de secuencias planas de ADN.

Karin Quiroga Directora del Área Informática y Telecomunicaciones de INACAP

I ngeniero Civil I nformática de la Universidad de Concepción y Magíster en Tecnologías de Información de la Universidad Técnica Federico Santa María. Cuenta con más de 18 años de experiencia en la dirección de proyectos informáticos y administración académica. Ha participado en desarrollos web de sistemas corporativos, de innovación y proyectos en el área e-learning.

Toda la información que generamos los seres humanos se está almacenando y ello implica retos tecnológicos a distintos niveles, así como una modificación a nuestro estilo de vida.

Ciclo de Conferencias en Desarrollo de Capital Humano 8

Me referiré a los nuevos retos y a las nuevas herramientas de software -new toolsque están desarrollándose de manera muy rápida y vertiginosa para hacer frente a esos desafíos. Quiero dar una visión más o menos general de lo que es Big Data, sus conceptos esenciales; después la relacionaré con otras áreas de las tecnologías de la comunicación y las telecomunicaciones y, finalmente, hablaré de las infraestructuras Big Data para presentar una de las herramientas que actualmente ganan cada vez más usuarios, tanto en instituciones públicas como en empresas privadas: el Spark.

Jon Ander Profesor del Departamento de Sistemas Informáticos y Computación de la Universidad Politécnica de Valencia, España

BIG DATA: NUEVOS DESAFÍOS Y NUEVAS HERRAMIENTAS

Una de las ideas que me interesa plantear es cómo sacar partido al hardware que tenemos disponible. Porque, de alguna manera, las limitaciones físicas del desarrollo de hardware hacen que ya no podamos tener en una misma computadora la suficiente capacidad de cómputo y de almacenamiento para resolver ciertos problemas, así como tampoco de análisis de ciertos datos en un tiempo razonable que nos entregue una respuesta cuando la necesitamos.

TRABAJAR CON UNA ENORME CANTIDAD DE DATOS Una empresa multinacional de Valencia que entrega servicios a la banca de inversión, relató que debía proporcionar información después de procesar los datos para que, sobre esa base, sus clientes tomaran decisiones. Pero había llegado un momento en que trabajaban con tal volumen de datos, que el proceso normal que acostumbraban a seguir demoraba más de 24 horas. De esta manera, no podían dar las necesarias respuestas de un día para otro. Fue entonces cuando asumieron las tecnologías Big Data, que en la misma ejecución demoraba solo un par de horas. Por lo tanto, la información necesaria para tomar ciertas decisiones -qué invertir en la bolsa y cuándo, por ejemplo-, al día siguiente ya estaba disponible. Intentaré dar una definición parcializada del actual concepto de Big Data, que esencialmente aparece cuando necesitamos tra-

bajar con enormes volúmenes de datos. El problema ocurre al momento de procesar, recoger y almacenar esos datos, para cuando ya estén disponibles realizar un análisis que nos permita asumir ciertas determinaciones. Pues bien, cuando estas tareas ya no caben en un sistema tradicional -incluso en un sistema computacional de alto rendimiento, como los HPC-, entonces necesitamos ciertas herramientas de software -el Middleware, que está por encima del sistema operativo- que permiten que computadores, incluso portátiles, o laptops o notebooks , estén interconectados entre sí y sus tareas se realicen de manera simultánea. El Spark consigue distribuir la carga de cómputo entre los computadores y esto permite integrar entre dos mil y tres mil de ellos. Actualmente tenemos tantos datos debido a que toda la actividad humana se está digitalizando: transacciones en las entidades financieras, compras con tarjeta, expedientes médicos, toda esa información se recolecta y ya no se borra. Y hay diferentes fuentes, como los teléfonos móviles, que son dispositivos que interactúan entre ellos y generan datos de la información de los sensores que capturan, que a veces procesan y otras veces la envían para que se reprogramen. Como sea, siempre están originando información. Enseguida está la internet of people, que son las redes sociales: una fuente de información no estructurada, que será uno de nuestros caballos de batalla; y también están los dispositivos con los que nos conectamos para automonitorearnos directamente: tomar la presión, la temperatura y las pulsaciones, por ejemplo. Respecto de los smartphones, allí se recibe una gran cantidad de información de geolocalización relativa a las búsquedas que realizamos en Google Maps, en Trip Advisor u otra herramienta. Estas siempre están continuamente recopilando datos de búsqueda y los guardan. Ello ocurre igualmente cuando una persona se conecta con otra. Según una predicción facilitada por Benedict Evans, se estima que para 2020 habrá cuatro mil millones de teléfonos móviles en el mun-

Ciclo de Conferencias en Desarrollo de Capital Humano 9

do, para siete mil millones de habitantes. En cuanto a las transacciones financieras -sobre todo las operaciones de crédito y débito con las tarjetas-, todas sus contabilidades se almacenan. Igualmente ocurre con la información de las hipotecas, para calcular riesgos en los préstamos a una persona o a una pequeña empresa que quieren montar o ampliar su negocio. Lo mismo con las transacciones nacionales e internacionales y con las compras que realizan los clientes. Muchas empresas se basan en esta última información para colocar una publicidad de acuerdo a nuestro perfil de compra, identificando al usuario con determinados productos y preferencias. Con respecto del tema de los datos financieros, desde 2010 no se borra prácticamente nada de estas transacciones. Los bancos tienen suficiente capacidad de almacenamiento para ello, pero eso está ocurriendo también en otros ámbitos. Se ha descubierto que los datos tienen un valor inmenso y, por lo mismo, nadie quiere hacerlos desaparecer. La gente, las empresas y sobre todo las grandes multinacionales se dieron cuenta de que los datos tienen mucho valor, aunque todavía no los puedan explotar adecuadamente. Sin embargo, hay que conservarlos todos. Cada vez generamos más datos y, por tanto, este volumen crece de manera exponencial

OTRAS FUENTES DE DATOS En otras fuentes de datos, tenemos el Internet de las Cosas (IoT en su original inglés, es decir, Internet of Things). Personalmente estoy involucrado en un proyecto para una factoría donde se implantan nuevos sensores a la maquinaria del proceso de fabricación. Con ello se intenta monitorizarlas en el aprendizaje automático para predecir cuándo estas maquinarias van a fallar o cuándo conviene -por ejemplo, por las vibraciones que se observan en su funcionamiento- reemplazar determinada pieza o cuál hay que revisar en la próxima mantención. El problema es que solo estamos sensorizando a algo más del 3% de las ciento y tantas maquinarias de la compañía, y la cantidad de

datos que allí se generan por segundo es tan enorme, que tenemos dificultades para procesarlos. Debemos usar la base de datos Cassandra, que es distribuida entre muchos computadores para almacenar toda la información y, obviamente, herramientas o programas de middleware, como el Spark u otro software que disponemos para Big Data. El crecimiento que se prevé de IoT también es bastante exponencial: se estima que para 2020 habrá alrededor de 25 mil millones de dispositivos. Respecto de las redes sociales, también son una gran fuente de datos, porque todo el mundo está continuamente interactuando en Twitter, Facebook, Whatsapp y correo electrónico. Sin embargo, se trata de una fuente de datos no estructurada, es decir, no sigue una estructura que nos permita almacenar registros en una base, sino que son textos que debemos ir procesando, parseando y tokenizando hasta encontrar palabras clave que nos revelen el mensaje que está escrito ahí. Como se sabe, estos textos hacen un mal uso del lenguaje, abusan de fórmulas, de metáforas y hasta de un lenguaje irónico, algo que el ser humano decodifica y comprende perfectamente, pero que a las máquinas les cuesta bastante. De allí que se provoque una alta tasa de fallos: conseguir un 60% de aciertos al analizar ciertos tweets para saber si hay opiniones positivas o negativas respecto de algún asunto, es un tremendo triunfo. Sin embargo, se está trabajando mucho en esta línea, porque aspectos como la reputación en la red son muy relevantes para la propia empresa. Por ello, las herramientas de análisis de lo que se escribe por internet en las redes sociales son fundamentales para ellas. También lo es para el análisis de mercado de ciertos productos, información que se obtiene de las conversaciones en aquellas redes. En muchas ocasiones las empresas deciden lanzar o no un producto en función de las tendencias que observan ahí, y hasta determinan cómo organizar la campaña de marketing para impactar al mercado nacional e internacional.

Finalmente, otra fuente de datos son los dispositivos portátiles relacionados con la salud -wearable devices- y que podemos trasladar con nosotros para monitorearnos. En los últimos años, en Estados Unidos es fuerte la tendencia de recolectar todos esos datos y automáticamente enviarlos a unos servidores para que se utilicen de manera colectiva en la predicción de ciertas enfermedades. Incluso en un artículo se decía que si se identifica el perfil de las constantes vitales de una persona, clasificándola en un tipo específico y se le monitorea continuamente, es posible que el sistema pueda anticipar un infarto de miocardio hasta con 15 días de antelación.

BIG DATA: UN FENÓMENO SOCIOECONÓMICO Big Data se define con varias V: volumen, velocidad, variedad y veracidad. Volumen es la capacidad de almacenamiento; velocidad es la capacidad de procesamiento online, streaming; variedad significa que continuamente está explorando datos no estructurados, y veracidad significa que el objetivo principal es que las empresas tomen decisiones en función de datos reales. Y yo agregaría la seguridad. Uno de los espionajes industriales actuales no consiste en robar los datos de una empresa de la competencia y reutilizarlos, sino que entrar en su sistema y alterar los datos para que, desde ahí, se extraigan conclusiones erradas que lleven a tomar decisiones también equivocadas. Y esto a nivel industrial puede tener consecuencias graves. Por tanto, la seguridad de datos es un aspecto relevante en Big Data. Me gusta definir Big Data como un fenómeno socioeconómico, porque está alterando nuestra manera de vivir, algo que ya es indiscutible. Es un fenómeno socioeconómico porque está replanteando -o provocando que se replanteen- las estrategias empresariales y de negocios, ya que en la actualidad el dato tiene un gran valor. Pero disponer de tales cantidades de datos ya no es sinónimo de disponer de información. Antes, con pocos datos, una persona podía

Ciclo de Conferencias en Desarrollo de Capital Humano 10

ver o representar rápidamente una gráfica y así tener la información que necesitaba. Ahora debemos realizar los procesos correspondientes para extraer información de esa gran cantidad de datos. Y ese es uno de los principales retos que plantea Big Data.

Jon Ander

El disponer de enormes volúmenes de datos para ciertos análisis o diagnósticos -como la salud y la medicina- ha provocado que ya no nos preocupemos por el punto de vista estadístico matemático, si la muestra es representativa o no del conjunto de datos. Porque poseer volúmenes de datos suficientes ya nos garantiza que los resultados obtenidos del modelo matemático estadístico serán suficientemente fiables y los mejores que podamos conseguir. Esto marca un punto de inflexión en la manera de procesar y aprovechar la información almacenada y registrada. Igualmente, ha cambiado la manera en que vivimos en lo referente a la privacidad y a la seguridad de los datos. Todo aquel que quiera trabajar con Big Data tiene que garantizar esto a sus clientes. Por ejemplo, los bancos y los hospitales no tendrán su infraestructura Big Data en la nube, sino que in situ: necesitarán un equipo de expertos en Big Data en su propia empresa. Entiendo Big Data como un conjunto de retos tecnológicos. Y como desafío, hay que decir que los sistemas tradicionales ya no son suficientes para manejar grandes volúmenes de datos. Desde 2006 o 2008 se necesita explotar de manera masiva lo que se llama commodity hardware: hardware de bajo costo, de manera de no tener enormes servidores con una inmensa capacidad, sino que muchísimos computadores pequeños, modestos, con una relativa cantidad de memoria -ocho o 16 GB y un par de TB de disco- y que miles de ellos estén conectados. Es lo que hacen hoy Google, Facebook y Twitter, quienes carecen de un súper servidor.

LOS EXPERTOS DE BIG DATA Big Data nos permite a la sociedad, a las instituciones y a los gobiernos realizar operacio-

nes que antes ni nos hubiésemos imaginado. Un ejemplo de ello es que algunos médicos de varios hospitales de Estados Unidos se unieron para procesar la información sobre los enfermos de cáncer. Por su experiencia y conocimiento, ellos habían identificado ocho marcadores relativos a esta enfermedad, pero no conseguían dar con lo que querían. La confluencia de estos doctores con expertos de Big Data y de aprendizaje automático los llevó a tomar una decisión: entregarle toda la información al sistema, indicando cuál fue el tiempo de supervivencia de cada paciente. Así, el sistema descubrió tres marcadores más que los médicos, los que eran particularmente útiles para el diagnóstico. Es otro ejemplo de que trabajar con grandes volúmenes de datos, disponer de ellos en conjunto y utilizar técnicas de aprendizaje automático consigue resultados que los expertos en el tema no podían lograr aisladamente. Podríamos decir que toda la información que generamos los seres humanos se está almacenando y ello implica retos tecnológicos a distintos niveles, así como una modificación en nuestro estilo de vida. Trabajar con grandes volúmenes de datos nos permite elaborar mejores modelos predictivos y mejores modelos matemáticos-estadísticos para tomar decisiones. Quisiera relacionar Big Data con otras áreas que son incipientes o que ya existían. Por ejemplo, computación distribuida, Master Learning, Smart Cities e Internet de las Cosas, las que, a su vez, trabajan conectadas. Pero de alguna manera Big Data consigue que, además, se complementen todos los desarrollos en estas técnicas para así obtener mejores resultados. El objetivo de todo esto es tomar determinaciones en función de los datos obtenidos, realizados por expertos en Big Data. En términos generales existes tres tipos de estos expertos. El primero es el system manager, el que conoce la infraestructura del Big Data, el “arquitecto software”, que sabe cómo integrar todas las herramien-

Ciclo de Conferencias en Desarrollo de Capital Humano 11

tas y sacar partido a muchos commodity software y a hardware de bajo costo. Después está data scientist, que domina las técnicas de machine learning: cuando están los datos almacenados, hace transformaciones sobre ellos para obtener resultados. Y, finalmente, figura el analista de datos, cuyo campo es más estadístico. Él debe saber sintetizarlos, ocupando las herramientas adecuadas de visualización para presentar los resultados de sus análisis. Sobre esa base, el consejo de administración tomará las decisiones finales. Quien asume las decisiones no suele ser experto en análisis de datos, pero al menos hay una persona en cada equipo que debe ser el beta officer. De alguna manera él dirige al equipo y es experto en presentarlo a dicho consejo de administración. En síntesis, los datos se preprocesan, se almacenan y se limpian para posteriores aplicaciones de análisis. Manejar hardwares de bajo costo, de manera masiva y almacenar en forma distribuida todas las informaciones simultáneamente en diferentes máquinas, es importante. Sin embargo, al final es el esfuerzo humano el más significativo, porque -según las empresas- entre el 80 y el 90% de los resultados le corresponde a esta instancia.

LA INFRAESTRUCTURA ESENCIAL DE BIG DATA Me referiré ahora a la infraestructura Big Data. De acuerdo a lo comentado hasta ahora, necesitamos sacar partido de manera masiva al hardware de bajo costo y trabajar con sistemas distribuidos, no solo para almacenamiento, sino también para el procesamiento de los datos. Se trabaja con distintas bases de datos que son distribuidas, algunas orientadas a datos estructurados y otras a datos no estructurados. De igual manera necesitamos el middleware para explorar el hardware de bajo costo. Este middleware se coloca encima del sistema operativo y permite que lancemos procesos y almacenemos datos en muchos computadores a la vez.

En este punto quisiera destacar a Spark, que es un middleware de nuevo cuño y que desde hace un par de años está copando el mercado en prácticamente todos los niveles. Spark está sustituyendo definitivamente a Hadoop, que es un sistema que permitía lanzar procesos de datos o tareas en muchas máquinas simultáneamente, aunque siempre operaba en disco. Eso lo ralentiza mucho. Spark, en cambio, nos permite guardar los datos de manera distribuida en la memoria de todos los computadores que estemos utilizando al mismo tiempo. Hay que pensar que tenemos un clúster con mil computadores personales interconectados y Spark es la herramienta que nos permite programar para trabajar en el clúster y trabajar de manera distribuida en todas esas máquinas simultáneamente. Lo consigue gracias a una pieza clave conocida como Resilient Distributed Data (RDD). Se trata de un objeto que vamos a manipular en nuestros programas: es una abstracción de la programación que nos faculta para manejar colecciones de datos de manera distribuida. Esto le permite al usuario -al programador, en este caso- definir funciones que se aplicarán contra los datos, estén donde estén, de manera distribuida. Entonces, lo que se le entrega es una función que define el usuario y sobre esa base realiza transformaciones sobre los datos, gracias a los RDD. Dichas transformaciones las lleva a cabo de manera secuencial sobre todos aquellos datos que están en paralelo, con el objeto de obtener los resultados con una reducción. Ello se llama la “filosofía” en la manera de funcionar, que la puso de moda Google y su nombre es Map Reduce. Gracias al gran desarrollo de los software en los últimos diez o 15 años, estas tecnologías se han puesto en marcha y han propiciado el crecimiento de muchas herramientas de programación que nos permiten lanzar el mismo proceso repetido en muchos datos. Spark se encarga de distribuirlo automáticamente y, además, si deja de funcionar uno o varios computadores, puede recuperarse y redistribuir la carga en el resto. Ello

Jon Ander

ACTUALMENTE TENEMOS MUCHOS DATOS PORQUE TODA LA ACTIVIDAD HUMANA SE ESTÁ DIGITALIZANDO: TRANSACCIONES EN EL BANCO, COMPRAS CON TARJETA, EXPEDIENTES MÉDICOS, TODA ESA INFORMACIÓN SE RECOLECTA Y YA NO SE BORRA. Y HAY DIFERENTES FUENTES, COMO LOS TELÉFONOS MÓVILES, QUE SON DISPOSITIVOS QUE INTERACTÚAN ENTRE ELLOS Y GENERAN DATOS DE LA INFORMACIÓN DE LOS SENSORES QUE CAPTURAN.

Ciclo de Conferencias en Desarrollo de Capital Humano 12

le permite dar una gran seguridad a los sistemas Big Data, porque si hay mil o dos mil máquinas y cada semana fallan dos o tres, se pueden sustituir sobre la marcha. Así, el sistema siempre está funcionando.

Jon Ander

Spark trabaja con datos en tiempo real, que sería la parte de streaming. Aquí diseña otra abstracción de programación destinada a procesar datos en streaming. Después incorpora las librerías de Machine Learning. Ellas son muy relevantes hoy día en un análisis de datos: las herramientas tipo Spark ya asumen estas librerías para que los principales algoritmos de aprendizaje automático sean implementados una vez y para siempre. Y después está el GraphX -el módulo de procesamiento de grafos- donde está implementado, por ejemplo, ese algoritmo inventado por Google para hacer un ranking de las páginas cuando las buscamos en internet.

LOS SERVICIOS DE BIG DATA Cuando no contamos con la infraestructura Big Data en nuestras instalaciones, podemos contratar servicios de computación en la nube a proveedores como Amazon, IBM y otras. El primer nivel, infrastructure service, nos proporcionan las máquinas virtuales y sobre ellas el usuario decide qué sistema operativo coloca, qué middleware para Big Data. Enseguida está la posibilidad de contratar los datos y las aplicaciones que necesitemos en el platforms asset services; y, por último, está el software asset service, donde no solo se contrata aquello que se requiere, sino también se solicitan datos específicos de las redes sociales, por ejemplo. Ahí se aprovecha la aplicación de aprendizaje automático hecha para procesamiento de los datos que ellos tienen y no se debe desarrollar nada, simplemente aprovecharlo. Ello tiene un costo, evidentemente. Lo que quiero resaltar es que cuando no hay recursos financieros para tener toda la infraestructura Big Data en una empresa, se puede tener un equipo que se encargue de contratar estos servicios por un periodo de tiempo, escalando lo que se necesite en ese momento.

Por ejemplo, si una empresa entrega servicios a un banco y necesita procesar cierta cantidad de datos en dos horas, se contratan esas dos horas de cómputo en la nube, más el espacio requerido para almacenar la información y solo se paga cuando finaliza el proceso y se tienen los resultados que conducirán a la toma de decisiones. La compañía que entrega este servicio factura únicamente aquello que se consume.

Ciclo de Conferencias en Desarrollo de Capital Humano 13

El Centro de Investigación y Desarrollo de Telefónica en Chile se estableció dentro del programa de atracción de los centros de excelencia internacional que tiene Corfo, con el foco de trabajar en Internet de las Cosas (IoT en su original inglés, es decir, Internet of Things), en especial la aplicada a la agricultura, la minería y al desarrollo de ciudades inteligentes. Ahí buscamos lograr un impacto positivo y sustantivo para Chile.

Pablo García Gerente de Investigación del Centro de I+D de Telefónica en Chile

EL DESAFÍO DE IMPLEMENTAR UNA SOLUCIÓN DE INTERNET DE LAS COSAS

Hace varios años, un compañero de la universidad me trajo un problema de secuencias de ADN: se trataba de unos estudios que se le realizan a una familia a través del tiempo, de toda su descendencia y de las enfermedades que las han afectado. El volumen de datos era enorme, imposible de analizarlo con los sistemas actuales. En ese momento Hadoop era algo incipiente. A pesar de ello, lo fuimos a buscar, lo instalamos y estuvimos varios meses trabajando en la solución. Sin embargo, ahora se ha llegado a un espectacular nivel de automatismo. Uno de los fenómenos que ocurrió es que el secuenciamiento del ADN ya se volvió un commodity. Hoy en día, uno entra en una página web, se registra con una empresa, ella envía un pequeño frasco para recolectar la muestra y al poco tiempo nos devuelve el perfil genético.

MODELOS DE NEGOCIOS CON ELEMENTOS BARATOS Y MASIVOS Ello ocurre porque la fuerza de la evolución tecnológica y de toda la ciencia trabajando en pos de resolver aquellas dificultades relevantes en nuestra vida, evoluciona muy rápidamente y a mayor velocidad de lo que imaginamos. En la actualidad, cualquier oncólogo tiene acceso a la secuencia completa de su paciente, que le ayudará a atacar más eficazmente la enfermedad. Ese es el tipo de transformaciones donde estamos inmersos, el que también está afectando al IoT. A veces tenemos la sensación de que hemos conseguido cierta estabilidad, pero las modificaciones hacia adelante son mucho más rápidas. Cada vez tenemos menos tiempo, desde el momento en que surge una deter-

minada tendencia, hasta que la convertimos en un beneficio para nuestra organización. El IoT nos da una enorme oportunidad de cambiar y de que aparezcan nuevos modelos de negocios, con elementos baratos y masivos. Cuando estos elementos y herramientas tienen costos tan bajos, siempre aparece alguien que logra apalancarlo para generar otros modelos de negocios. En el Centro de I+D, nuestro primer desafío fue reclutar a un equipo multidisciplinario de excelencia. Era esencial contar con especialistas técnicos que asumieran nuevos retos y que, en poco tiempo, procesaran enormes volúmenes de datos. Nuestros pilares en el Centro son este equipo de profesionales, el utilizar metodologías ágiles, la tecnología y el data science. Respecto del equipo humano, el primer año lo ocupamos en preparar, entrenar, hacer los prototipos y ganar confianza, para que de esta manera las situaciones se atacaran desde diversas áreas. Nos enfocamos hacia un modelo ágil que definimos como Market Pull. Nos preocupamos de los problemas reales que tienen las organizaciones. Para ello les preguntamos directamente a los mineros y a los agricultores qué carencias o conflictos arrastraban en los últimos años sin poder resolverlos. Con las nuevas realidades tecnológicas es posible pensar desde otras miradas aquella situación en apariencia insoluble. Por ejemplo, para una plaga difícil de exterminar, hoy podemos sensorizar en forma mucho más barata un establecimiento y enfrentar ese enorme volumen de datos de los sensores para entender su comportamiento. Gracias a estas informaciones se podrá modificar la estrategia de ataque y, ojalá, erradicar esa plaga. Nos apasionamos con los problemas y tratamos de ser rápidos en la respuesta. Trabajamos con Canvas y con Scrum, iteramos rápido y si fallamos en las soluciones enfrentamos el tema desde otra perspectiva y avanzamos con dos equipos paralelos. Intentamos enamorarnos del problema, no de la solución, y esa es mi invitación. Hay

Ciclo de Conferencias en Desarrollo de Capital Humano 14

una enormidad de herramientas tecnológicas para aplicar, abordar y construir un ingenio que lo resuelva. Esa es una de las cosas más hermosas de nuestra profesión. Nos basamos en un pilar de plataformas tecnológicas. Así como el análisis de Big Data tiene hoy una plataforma y un ecosistema arriba de Hadoop, y sigue creciendo y continúan apareciendo piezas para cada uno atacar de forma especializada cada problema, nosotros tomamos la iniciativa de la Comunidad Económica Europea: utilizar plataformas abiertas, fundadas en el principio de Open Data, que poseen el nivel de madurez adecuado para desarrollar soluciones en IoT.

Pablo García

LA PLATAFORMA FIWARE Aquí surgió Fiware, una iniciativa de la Comunidad Económica Europea que está en pleno proceso de transición y creando varios software. Hoy en día está robusteciendo los órganos de gestión de esa plataforma con un contexto, una fundación y un comité de responsables de cada uno de los módulos, totalmente liderado por la comunidad, de código abierto (el Open Source). En la actualidad tiene 66 módulos que resuelven problemas específicos y se interconectan entre sí. Están pensados con una lógica de interacción para resolver incertidumbres en esta IoT. Esta plataforma se ha utilizado con éxito para entregar soluciones industriales, de la agricultura y de Smart Cities. En la primera fase hubo gran uso para solucionar situaciones de las ciudades, porque es un lindo campo de trabajo. En España se creó Smart Santander, con más de 20 mil sensores, lo que generó un ecosistema: cada sensor puede dialogar con distintas aplicaciones. Fiware es una plataforma grande y compleja. Solo me referiré a sus herramientas principales para implementar soluciones de IoT. Aquí hay que manejar y dialogar con apis abiertas y protocolos estándares, así como interactuar con las cosas, por ejemplo: el sensor de humedad tiene que decirle a la bomba “apágate, porque te estás inundando”; o el

sensor de seguridad del tanque tiene que ordenarle a la bomba “apágate, porque no me queda reserva de agua, vas a bombear en vacío y se te va a quemar el motor”. Ese diálogo debemos consultarlo desde afuera y esta plataforma resuelve estos asuntos. Hay que pensar en el fuerte impacto que se produjo en la construcción de los sistemas, cuando pasamos desde la orientación hacia los objetos, a la orientación hacia los servicios. ¿Por qué? Porque salimos del espacio de un computador y comenzamos a dialogar entre varios computadores, los que ya estaban integrados. Mantener el tiempo de vida de un objeto remoto desde otro computador -que a veces se desconectaba o se apagaba- era muy difícil. Los objetos habían sido concebidos para estar en la memoria de un mismo computador. Entonces surgieron los servicios que hacían explícita la comunicación remota con el otro equipo, y ahí la interfaz ya no era el chat o la conversación. En la plataforma, la funcionalidad está implícita. Y, por supuesto, hay que darle seguridad, hay que generar un token para que se conecten y se autentiquen. Esto es lo que realiza la plataforma Fiware. Nos basamos esencialmente en los estándares OMA, EGCI 9 y 10 para que sea muy fácil acceder a los elementos. Un requisito es que sea sencillo accesarlo, manipularlo, consultarlo y trabajar, y que sea flexible, de tal forma que lo puedan analizar y entender tanto un computador como una persona. Por eso toda la información la capsulamos en Jason, de manera que si se lee, se entienda. Es importante que todas las partes del sistema tengan apis, que para un desarrollador sean fáciles de comprender, casi obvias, y así entonces podremos integrarnos más rápido en esos sistemas y soportar cada parte de él con un servicio. El Orion Content Broker es un bróker de publicación-suscripción donde se maneja el presente de todos los objetos, de todos los sensores que están conectados a este sistema. Y como la información de su situación es la actual, es fácil hacerle consultas para que entregue distintos datos. Cuando los tiene, los

Ciclo de Conferencias en Desarrollo de Capital Humano 15

notifica a otro sistema al cual tenemos acceso. La comunicación es un desafío. Nosotros usamos estos estándares para comunicarnos con aplicaciones, pero por debajo hay que dialogar con sensores que tienen procesadores muy pequeños. Entonces, con un core ARM nos comunicamos usando la tecnología que necesite el sensor. Una plataforma debe tener la capacidad de dialogar con lo que sea, con cualquier estándar que se haya implementado y, además, debe tener un diseño sencillo. Lo hacemos con agentes creados para dialogar con las cosas que tienen sus propios protocolos.

ALGUNOS DESAFÍOS FUTUROS Hay muchos otros desafíos que vendrán. En 2020 tendremos desplegadas las redes 5G, aunque por ahora no hay una solución en los estándares: recién se estandarizó el tema de las redes de baja energía y va a demorar un año o más en ser parte de los estándares LTE y de lo de 4G. Hay redes como Sicop, por ejemplo, de baja energía, que abarcan radios de hasta 50 kilómetros de distancia y su transmisión es de doce bytes por vez, con una frecuencia máxima de cada 15 minutos. Ello le permite a un sensor prenderse, hacer una transmisión, apagarse y no gastar prácticamente nada de energía, dando una solución para tener una implementación masiva de Internet de las Cosas. Tener conectividad con todo ese desafío se consigue a través de un componente que maneja el asincronismo, que maneja la comunicación con los dispositivos y nos deja dialogar con el Context Broker, como si esos sensores estuvieran presentes. Luego los sincroniza, los actualiza, los comunica, guarda los comandos y los envía, utilizando los protocolos necesarios dentro de los estándares. Su cobertura es muy buena. En general, cuando trabajamos con IoT se usa para un sensor más grande que está conectado a la energía en una máquina. Pero cuando se habla de elementos más pequeños, se utiliza Coap o Mqtt, que son protocolos que emplean muy pocos bytes para transmitir la información. Lo importante de este tipo de plataformas

es que tengamos puntos de integración. Durante muchos años fui arquitecto principal de Microsoft y discutía con el resto justamente decisiones de arquitectura. Y una decisión de arquitectura es la siguiente: no comprar ninguna máquina que nos impida conectarnos para sacar en un formato estándar todos los datos que ella tiene de mi empresa. Hay determinaciones que son muy importantes en la vida de una empresa. Y ahí, arquitectura es decidir que todo aquello que se compre en el negocio venga con interfaces y conectividad estándar, de tal manera que se pueda dialogar, que entregue todos los datos y que no se los guarde el proveedor de ese equipo. Y este tipo de solución la vamos construyendo de forma tal que cada elemento que conectamos esté abierto: un api y un endpoint que permiten dialogar y comunicarnos con ese elemento que conectamos. Podemos combinar las reglas para que se tomen acciones en tiempo real y los objetos se comuniquen con otros objetos, automatizando así las tareas e incluso la toma de decisiones. De esta manera le sacaremos un enorme potencial al Internet de las Cosas.

EL SURGIMIENTO DEL CUARTO PARADIGMA Finalmente, en nuestro Centro terminamos haciendo Data Science, que consiste en aplicar todas esas herramientas analíticas a ese volumen de información. Uno de los desafíos que tiene Chile -y el mundo en generales cómo analizaremos ese tremendo caudal de información que ya poseemos. Es decir, cómo educaremos a un grupo de data scientists, personas que sepan un poco de estadística, otro poco de matemática y otro de gestión de datos, al punto de que sean capaces de estructurar todo lo que poseemos. Es el gran desafío del mercado hoy. Y está en explosión. Hacen falta los especialistas para accionar sobre ese volumen de datos. Hace años, el científico norteamericano Jim Gray dio una charla afirmando que hoy vivimos el cuarto paradigma de la ciencia. El primero fue el de Galileo, quien dijo que si una

afirmación no coincide con el experimento, es falsa. Ahí nació la ciencia experimental. El segundo paradigma surgió cuando Newton teorizó que los planetas alrededor del sol recorren áreas iguales en tiempos iguales. Se formuló ahí la Ley de Gravedad Universal. Después vino la ciencia asociada a la mecánica cuántica, donde se realizaban simulaciones, y si ellas coincidían con las observaciones del experimento, concluíamos que teníamos el resultado correcto. En la actualidad, el cuarto paradigma, en particular en el área de bioinformática, es hacer cálculos, búsquedas y análisis de datos que permiten dinamizar fuertemente el avance de la ciencia al producir resultados que surgen, precisamente, de esa enorme cantidad de información. En el Centro trabajamos en cosas simples, como control de riesgos. Ahí producimos modelos predictivos capaces de anunciar, por ejemplo, cuánta agua de un regadío podrán absorber las raíces y de qué manera ello permeará el terreno. Lo entregamos como una aplicación. Acá hay un enorme trabajo de todo el equipo de desarrollo, que primero sensoriza, conecta e interconecta los sensores para recolectar los datos. Después, el equipo de científicos analiza esos datos y genera modelos predictivos, los que luego se integran dentro de una solución completa que se le entrega al usuario en su teléfono celular. El resultado final es una integración entre dos equipos, capaz de generar una aplicación con una interfaz muy sencilla, donde se indica cómo se debe accionar y planificar el riego en el campo. Estos modelos se aprenden y se mejoran, y nosotros nos preocupamos, más que nada, de mejorarlos.

LOS MÉTODOS DE APRENDIZAJE AUTOMÁTICO Como decía antes, los recursos se volvieron abundantes y las tecnologías maduran. El Deep Learning -Aprendizaje Profundo- es parte de un conjunto más amplio de métodos de aprendizaje automático, basados en aprender representaciones de datos. Es algo que avanza a velocidades asombrosas

Ciclo de Conferencias en Desarrollo de Capital Humano 16

y los modelos matemáticos ya están. También se puede aplicar algo parecido en las imágenes. Una matriz de convulsión, por ejemplo, toma una imagen y aplicándole esa matriz a cada conjunto de pixeles, y calculando cada pixel sobre la base de esa matriz, logramos definir los bordes de esa cara.

Pablo García

Estas tecnologías se convierten en un commodity extremadamente barato y pasan a ser mainstream en forma muy rápida, es decir, en productos masivos y muy solicitados. Lo importante aquí es la capacidad de desarrollar el proyecto y las herramientas, de manejar los datos, gestionar la idea, tener la voluntad de llevarla adelante y emprender. Ese esfuerzo vale más que los recursos, porque estos son baratos. Se puede emprender con tecnologías de Internet de las Cosas usando tecnologías de la nube. En la actualidad, en el Centro hay unos 40 equipos participando en la solución de un problema agrícola nacional: se trata de una plaga llamada Lobesia Botrana, que llegó en alguna máquina que no se fumigó bien, y que se ha expandido en gran parte del país, afectando principalmente el cultivo de la uva. Hay 35 mil trampas desplegadas en muchos terrenos, capturando a estas polillas para entender cuál es su ciclo de reproducción, entre septiembre y marzo, y así fumigar y mantenerlas controladas. Existe un protocolo bastante complejo que afecta a Chile como exportador de uva: abrir el contenedor y fumigarlo, porque todos los agrónomos saben que ponerle pesticidas a la fruta es algo que puede dificultar su comercialización. Además, como no se tiene bien controlada la plaga, no hay más remedio que abrir el contenedor y fumigarlo también en destino, ya que no existe certeza de si va o no esta polilla. Nosotros estamos trabajando en la solución. La primera o segunda capa de una red neuronal ya identificó elementos que son candidatos a ser polillas. Luego, capas posteriores perciben si es una polilla, una abeja u otro insecto. Pero este es un desafío que lanzamos al ecosistema: construir una trampa barata que resuelva este problema para Chile y ojalá para el mundo.

Pablo García

A VECES TENEMOS LA SENSACIÓN DE QUE HEMOS CONSEGUIDO CIERTA ESTABILIDAD, PERO LAS MODIFICACIONES HACIA ADELANTE SON MUCHO MÁS RÁPIDAS. CADA VEZ TENEMOS MENOS TIEMPO, DESDE EL MOMENTO EN QUE SURGE UNA DETERMINADA TENDENCIA, HASTA QUE LA CONVERTIMOS EN UN BENEFICIO PARA NUESTRA ORGANIZACIÓN. El INTERNET DE LAS COSAS NOS DA UNA ENORME OPORTUNIDAD DE CAMBIAR Y DE QUE APAREZCAN NUEVOS MODELOS DE NEGOCIOS, CON ELEMENTOS BARATOS Y MASIVOS. AUTOMONITOREARNOS DIRECTAMENTE: TOMAR LA PRESIÓN, LA TEMPERATURA Y LAS PULSACIONES.

Ciclo de Conferencias en Desarrollo de Capital Humano 17

El objetivo de mi presentación es mostrar cómo la tecnología de Internet de las Cosas -IoT en su original inglés, es decir, Internet of Things- y Big Data se están desarrollando y cuáles son sus proyecciones desde el ámbito informático y desde la industria. Quisiera mostrarles su evolución, su utilidad y el futuro de estos grandes cambios que enfrentamos hoy, cuando tenemos una gran oportunidad para crecer en el emprendimiento e innovación.

HACIA LA CUARTA REVOLUCIÓN INDUSTRIAL Karin Quiroga Directora del Área Informática y Telecomunicaciones de INACAP

INTERNET DE LAS COSAS: UNA REVOLUCIÓN INDUSTRIAL

Debido a esta tremenda evolución tecnológica, en la actualidad se habla de una revolución industrial 4.0, o cuarta revolución industrial. Como se sabe, entre 1770 y 1840 nació y creció la primera revolución industrial. Fue un hito importante no solo para la economía de los países, sino que para la humanidad completa. Allí se pasó de una economía rural -una economía del agro- que no había tenido grandes transformaciones a través del tiempo, al desarrollo de las fábricas y la utilización de maquinaria: la máquina a vapor, las líneas férreas y las carreteras, entre otros aspectos, que incrementaron fuertemente el comercio y la industrialización. Se transitó desde una economía rural a una donde las máquinas intervinieron directamente en los procesos productivos. Luego llegó la segunda revolución industrial, que va desde 1870 hasta el inicio de la Primera Guerra Mundial (1914). En esta época continuó creciendo aquello que se inició en la primera revolución industrial, aunque incorporando nuevos medios de transporte, como el automóvil y los aviones. Surgieron y crecieron flamantes mecanismos de comunicación como la radio y la telefonía, y también aparecieron otros recursos como el gas, el petróleo y la electricidad. Esta segunda revolución permitió abrir la globalización de los mercados y por eso marcó un hito sin precedentes. Una vez que se abrieron estos mercados, la economía de los países nunca volvió a ser igual. Se inició fuertemente el comercio y el

transporte entre los países y los continentes. La tercera revolución industrial es la revolución de internet, donde se produjeron gigantescas modificaciones. Partió, obviamente, cuando no todos teníamos acceso a esta red, al igual que en la segunda revolución industrial, donde pocos tenían teléfono. Pero hoy día es difícil vivir sin internet e, incluso, trabajar sin conectividad y sin las aplicaciones de los celulares. Es un hito esencial que se inició en 1950, aproximadamente, hasta 2000, donde internet alcanzó su máxima madurez. Ahí ya teníamos casi todos los servicios disponibles, como ocurre actualmente. Cuando se abrieron los mercados, nadie estaba dispuesto a cerrar sus fronteras y a decir que no quería exportar. Sabíamos que era esencial esa apertura hacia la internacionalización. Igualmente, hoy nadie piensa en desconectarse de internet y vivir como antes. Entonces, cuando hablamos de esta cuarta revolución industrial nos referimos a la Internet de las Cosas, porque efectivamente hoy en día tenemos miles de oportunidades en esta nueva industria. Ella se inició hacia el año 2000, cuando comenzaron a explorarse estas nuevas industrias, donde la idea es que se desarrollen de manera inteligente. ¿Qué significa esto? Que a través de la tecnologización, mediante la incorporación de sensores o de mecanismos, las industrias pueden organizar sus medios de producción de una manera distinta. Y es una revolución, porque cuando ellas entran en el IoT, no volverán atrás: asumirán e implementarán sus procesos productivos a través de estos sistemas, los que progresivamente adquieren mayor madurez. Es importante tener conciencia de que no nos podemos sumar cuando este proceso ya esté definitivamente consolidado, sino que debemos ir a la par con el cambio. En el año 2000 se anunciaban tendencias, se pensaba que hacia 2020 habría otros parámetros, existirían la sensorización y la virtualización. Hoy ya son una realidad, y nuestra obligación es incorporarnos dentro de las especialidades profesionales.

Ciclo de Conferencias en Desarrollo de Capital Humano 18

SEGURIDAD Y PRIVACIDAD

Karin Quiroga

¿Por qué Internet de las Cosas? Fundamentalmente porque impulsa una irrupción digital en el mundo físico. Sus principales características son mejorar las operaciones de los procesos productivos -por eso hablamos de las industrias inteligentes-, bajando los costos, incorporando nuevos modelos de negocios e implementando la experiencia del cliente. Al crearse otros modelos de negocios y de productos, estos ya no serán los mismos que conocemos hasta hoy. En la actualidad, las aplicaciones web son un commodity y tenemos oportunidades de generarlas, pero la interactividad de estas aplicaciones con los servicios y con las necesidades de la industria constituye de por sí el nuevo modelo de negocio. Aquí es donde desarrollaremos la sensorización, no solo por automatizar, sino porque podremos levantar una gran cantidad de información que nos permitirá prosperar los procesos productivos, la calidad de vida y la experiencia de aquellas personas que están relacionadas con este mundo, incluidos los clientes, los usuarios. Hay algunos desafíos que las empresas deben considerar al incorporar estos nuevos modelos, y que tienen que ver fundamentalmente con el volumen de la información. Es decir, en el momento en que la industria comienza a innovar en Internet de las Cosas, recibirá una inmensa cantidad de información. Por lo tanto, todo esto no solamente pasa por sensorizar los procesos productivos, sino que, además, hacerse cargo de cómo se analizarán los datos para generar mejoras en el proceso y en la toma de decisiones. Otro tema importante es la seguridad, que es un proceso distinto. Vamos a interconectar máquinas con software y trabajaremos con distintos protocolos de comunicación, todo lo cual acarrea una especial preocupación por la seguridad y ella está conectada a la privacidad. En general estamos acostumbrados a manejar los sistemas tradicionales, las bases de datos, donde sabemos que el

servidor tiene un cierto sistema de seguridad. Sin embargo, en muchos casos aquí estamos abriendo la información al mundo y, simultáneamente, requeriremos información de las personas que están relacionadas con nuestros procesos, ya que de esa manera los perfeccionaremos. No solo queremos saber cómo se comporta un cierto sensor o determinada máquina, sino cómo lo percibe el usuario final que interactúa con ella. Únicamente de esta manera se podrá mejorar esa experiencia y fortalecer el proceso. Por lo tanto, hay temas de privacidad que también tienen que ser resueltos. Ocurre mucho con las Smart Cities -ciudades inteligentes-, donde hay temas de gobierno que es necesario definir y resolver, porque ellos tienen que entregar información para que se abra a estos grandes sistemas de IoT. Dicha información debe estar regulada y, por lo tanto, hay asuntos relativos a la privacidad que hay que resguardar dentro de los proyectos de IoT.

DISMINUCIÓN DE COSTOS Y AUMENTO EN LA CAPACIDAD DE LAS TECNOLOGÍAS El IoT es importante por la disminución de costos y por el aumento en la capacidad de las tecnologías. Los sensores siempre han existido: en el área de electricidad y electrónica, los eléctricos siempre han trabajado con ellos, pero hoy los tenemos mucho más cercanos, porque han disminuido sus costos y sus tamaños, para integrarlos a las máquinas y a los aspectos físicos donde los necesitamos. Pero, además, estos sensores tienen las posibilidades del Cloud Computing, es decir, todas las potencialidades. Por lo tanto, ellos ya resuelven problemas de almacenamiento y de conectividad con los recursos que tenemos disponibles y que están en paralelo con su tecnología. El Cloud Computing y los protocolos de comunicación resuelven muchos inconvenientes que antes eran propios de los sensores. Nos potencia mucho usar estas tecnologías de manera más económica y con un mejor procesamien-

Ciclo de Conferencias en Desarrollo de Capital Humano 19

to para manejar la información obtenida.

LAS COSAS

decir que se puede desarrollar sin límites.

También hay una disminución en el almacenamiento, porque sabemos que todo podríamos operarlo en la nube. Por lo tanto, no es necesario disponer de grandes computadores, complejos de administrar y de mantener. Actualmente, aquello queda encapsulado en la nube.

¿Qué es la industria de Internet de las Cosas? A través del cloud y de los servicios estas industrias se relacionan. Están las Smart Industries, que son las industrias inteligentes, pero también hay un área relativa a la salud. Existe un amplio mundo de desarrollo para la sensorización y el mejoramiento de los procesos relacionados con este tema. También hay una línea muy grande de las Smart Cities, que también serán puestas en marcha con estas tecnologías. Cuando hablamos de IoT nos referimos a su clara orientación hacia la industria, a las empresas, a los procesos productivos. Aquí está todo aquello relacionado con las smart, las factories, las grid, las machine, las ciudades y los autos.

Debemos pensar que la cantidad de dispositivos conectados supera en gran medida al total de la población mundial. Y estos tienen que estar conectados a través de los sistemas. Por lo tanto, esta conectividad será lo que impulsaremos a través del IoT. No son únicamente los juegos ni las aplicaciones que existen hoy: las personas van a requerir y desplegar nuevas necesidades. Así como hoy nos cuesta concebir nuestras actividades sin conexión wifi, igualmente con IoT tendremos la posibilidad de recibir mediciones de máquinas para asuntos impensables: por ejemplo, saber en pocos segundos en qué lugar de una comuna determinada existen estacionamientos disponibles. Eso no será algo impuesto, sino que nosotros mismos aumentaremos esas necesidades y crecerá igual como lo ha hecho internet y como se han desarrollado las empresas.

Respecto de los dispositivos conectados, la mayoría de nosotros tiene al menos un teléfono celular. Y muchas veces son más los dispositivos conectados por persona, dos o incluso tres: tablets, computadores y smart TV, por ejemplo. Se proyecta que en 2020 el número de dispositivos conectados por persona será de siete. Por lo tanto, esa conectividad tiene que resolverse. No serán servicios ni sistemas como los conocemos hoy, sino que se tratará de otras tecnologías. Respecto de Big Data, también es una tecnología que ya adquirió su madurez: ahí existen enormes perspectivas de almacenamiento y de análisis de la información. A diferencia de las grandes bases de datos que manejaban las empresas cuando se consolidó internet, las Big Data tienen otro sistema, otra arquitectura y se trabaja de otro modo con la información, porque el procesamiento tradicional de las bases de datos es incapaz de procesar la información que se levanta a través de los mecanismos de IoT. Por lo tanto, hoy tenemos la posibilidad de relacionar no solo la sensorización y el levantamiento de la información, sino que asimismo el análisis de ella de manera mucho más desarrollada y con nuevas plataformas. Internet de las Cosas y Big Data nos permiten hablar de máquinas inteligentes, capaces de procesar su propia información y mejorar sus procesos productivos. Ello las habilita para que interactúen también con la sociedad y que cambien los modelos de negocios de las empresas. Por ello es que hablamos de que vivimos una importante transformación.

LA INDUSTRIA EN INTERNET DE

Si hablamos de los automóviles, por ejemplo, lo hacemos en relación a una industria que produce vehículos y que IoT le permitirá potenciarlos para mejorar la experiencia de los clientes, pero, además, ellos mismos optimizarán sus capacidades. Existe, entonces, un desarrollo asociado al usuario, a quien va a consumir esta experiencia. Por ejemplo, están los smart, los teléfonos, la ropa. Existirán capacidades que permitirán medir situaciones, que nos entregará información tal como la cantidad de calorías que quemamos al caminar. Ya tenemos componentes que se acercan a la televisión, a las aplicaciones en la casa, a la domótica. Todo ello nos servirá para interactuar de una manera distinta con las máquinas: eso es Internet de las Cosas. Ello se aplicará igualmente al consumo hogareño, a la salud y al retail. Por ejemplo, cómo sensorizar las salas de ventas para mantener un stock en línea, manejar el consumo, medir la experiencia de la persona que se acerca a las grandes tiendas. En los grandes centros comerciales, si alguien se detiene en una tienda de zapatos, en su teléfono podrán aparecer todas las otras tiendas del rubro comprendidas en una determinada área, así como ofertas que le pudieran interesar. Ello puede ocurrir en el transporte, en la seguridad y en otros múltiples aspectos de la vida cotidiana. Se podría

EJEMPLOS DE SU USO ACTUAL Algunos ejemplos demuestran de manera concreta este tema. Está el caso de Bosch, una compañía que ha automatizado varios productos, entre ellos los vehículos. Les ocurría que cada vez que querían lanzar un modelo diferente, mucho más potenciado que el anterior, debían pasar innumerables horas de tests y de análisis hasta afirmar categóricamente que ese producto poseía una importante modernización. La única forma de mejorar la versión anterior era conocer, de manera muy estimativa, cuál era la experiencia de quiénes lo manejaban, opinión que conocían solo referencialmente. Entonces incorporaron sensores dentro del automóvil, gracias a los cuales ya no era necesario esperar a que alguien lo manejara y después relatara su experiencia: estos sensores comunicaban una gran cantidad de información, la cual era analizada después de un cierto período. Por ejemplo, si se quería saber cuál era la calidad de los frenos y cómo se podía perfeccionar, el sensor ubicado en esa zona podía determinar las características del compor-

Ciclo de Conferencias en Desarrollo de Capital Humano 20

tamiento. Lo mismo ocurría para cualquier otro componente que se desease medir, ejercicio que se realiza en tiempo real, sin necesidad de esperar a que el vehículo salga a la calle. Eso es algo que ya existe, que se está haciendo y que se utiliza para optimizar los próximos modelos que saldrán al mercado.

Karin Quiroga

En esta misma línea, si proyectamos cómo podría ser un taxi del año 2084, podríamos asegurar que habrá un significativo incremento en el mejoramiento de cada uno de los servicios y de las máquinas: simplificarán sus características, usarán tecnologías renovables, serán más saludables con el medio ambiente y multiplicarán sus capacidades. También Bosch administra otros dispositivos a través del teléfono celular, gracias a los cuales estos pueden estar interactuando en el jardín, regando y cortando el pasto. IoT no solo actúa a nivel industrial, como en los casos anteriores, sino que también en una relación directa con el consumidor, mejorando la experiencia de los clientes. Por ejemplo, con una bicicleta que posee una serie de sensores en distintos puntos, los que permiten determinar la velocidad y la aceleración, además de entregar información respecto de nuestro estado físico. Este caso está orientado a personas que se dedican al ciclismo, a los deportes, ya que proporciona cifras que miden el rendimiento no solo de la persona, sino que también de la máquina. A partir de aquella información se puede optimizar su funcionamiento y así aumentar las capacidades del deportista. El desarrollo de maquetería -realización de maquetas que representan un segmento de la realidad- permite unir los aspectos de la industria de IoT con la labor académica. Así, entonces, se puede diseñar e implementar una maqueta que tenga varios sensores para medir, por ejemplo, la velocidad de los autos, si hay recintos de basura, si están vacíos o no, y esa información envía señales a una tablet.

ALGUNOS PROYECTOS DE INACAP

¿Cuál es la experiencia de INACAP en Internet de las Cosas? En la actualidad se están desarrollando varios proyectos en distintas Sedes. Aquí es importante mencionar que la implementación de esta tecnología es interdisciplinaria, un modelo donde se congregan varias Áreas Académicas. Los electrónicos para sensorizar, los informáticos para levantar la información y los analistas para trabajar con la información y luego vaciarla a través de aplicaciones. Uno de ellos es el Proyecto Noez, adjudicado por Telefónica en su primer Desafío IoT. Es un proyecto académico que lo llevan a cabo alumnos que optan a su título en INACAP, en conjunto con la Asociación de Productores y Exportadores de Frutos Secos, Chilenut AG. En este caso se trabaja fundamentalmente para determinar in situ la humedad de secado en frutos secos -nueces-, optimizando recursos, disminuyendo al mínimo la toma de muestras durante el proceso y asegurando la homogeneidad del producto final. El equipo está conformado por alumnos de seminarios de título de las Áreas Electricidad y Electrónica, Informática y Telecomunicaciones, y obviamente del Área Agropecuaria y Agroindustrial que se adjudicó el proyecto. Otro caso es TemAlert, de la Sede Concepción-Talcahuano, realizado en una feria de emprendimientos tecnológicos. Este proyecto está implementado para el Área de Hotelería, Turismo y Gastronomía. En su esencia, busca registrar alertas de temperaturas en los congeladores del refrigerador, de manera que si por alguna razón las puertas no están herméticamente cerradas y la temperatura sube de rango afectando a los alimentos, el sistema envía alertas a un dispositivo móvil para que se tomen las medidas y se mantengan las cadenas de frío. También en Concepción se presentó el Proyecto SoftCool, que está postulando a financiamiento, ya sea en desafíos tecnológicos o en proyectos de emprendimiento. Se trata de un producto bastante avanzado y que también se relaciona con sensores

Ciclo de Conferencias en Desarrollo de Capital Humano 21

de temperatura, en este caso incorporados a camiones que transportan mercaderías y que necesitan de una cadena de frío. Así, estos sensores van registrando las temperaturas y enviando información en línea cuando los productos pierden su cadena de frío. Al llegar a destino se puede conocer en detalle su calidad en función de este tema. Recientemente realizamos un concurso de proyectos de título y se presentaron más de 100 a nivel nacional, pertenecientes a todas las Áreas Académicas. Es importante explicar que los clientes que tienen las mayores necesidades no somos nosotros, los informáticos, sino quienes viven el día a día con estos dispositivos y con sus necesidades. Por lo tanto, cuando comenzamos a desarrollar determinados proyectos no lo hacemos en el aire, despegados de la realidad, sino que vamos allí donde existan usuarios que tengan problemas y auténticas carencias, a los cuales debemos ayudar. Por ejemplo, en la Sede Maipú la carrera de Ingeniería Informática presentó un proyecto para prestar ayuda auditiva al público no vidente, de manera que puedan realizar compras en supermercados en forma independiente. En la Sede Renca hay un proyecto de título para crear una estación de monitoreo autosustentable para invernaderos, basado en microcomputadores Raspberry. En la Sede Santiago Sur se propone un diseño de implementación de un sistema para la regulación del índice de glicemia mediante la metodología de redes neuronales artificiales. En Valparaíso, Ingeniería Informática trabaja en un sistema de geolocalización para redes de pesca. Los alumnos le llamaron “¿Y dónde está la boya?”. La idea es dar una solución orientada a los pescadores artesanales para que identifiquen el lugar donde están sus redes en el mar. En Concepción, Ingeniería en Telecomunicaciones desarrolla redes de sensores inalámbricos para la detección de incendios forestales. En Puerto Montt, Ingeniería en Electricidad se dedica a la domotización y control inteligente de las luminarias públicas. Todo esto demuestra la necesidad de entrar

en estas nuevas tendencias y tecnologías, y por ello los invito a incorporarlas en los proyectos de los alumnos. Existe claridad de que las necesidades no van por la ruta de las aplicaciones tradicionales. Hoy debemos levantar estas plataformas que nos ayudarán a resolver estas problemáticas.

Karin Quiroga

¿POR QUÉ INTERNET DE LAS COSAS? FUNDAMENTALMENTE PORQUE ESTÁ IMPULSANDO UNA IRRUPCIÓN DIGITAL EN EL MUNDO FÍSICO. SUS PRINCIPALES CARACTERÍSTICAS SON QUE ESTÁ MEJORANDO LAS OPERACIONES DE LOS PROCESOS PRODUCTIVOS -POR ESO HABLAMOS DE LAS INDUSTRIAS INTELIGENTES-, BAJANDO LOS COSTOS, INCORPORANDO NUEVOS MODELOS DE NEGOCIO E IMPLEMENTANDO LA EXPERIENCIA DEL CLIENTE. AUTOMONITOREARNOS DIRECTAMENTE: TOMAR LA PRESIÓN, LA TEMPERATURA Y LAS PULSACIONES.

INACAP es un sistema integrado de Educación Superior, constituido por la Universidad Tecnológica de Chile INACAP, el Instituto Profesional INACAP y el Centro de Formación Técnica INACAP, que comparten una Misión y Valores Institucionales. El Sistema Integrado de Educación Superior INACAP y su Organismo Técnico de Capacitación INACAP están presentes, a través de sus 26 Sedes, en las 15 regiones del país. INACAP es una corporación de derecho privado, sin fines de lucro. Su Consejo Directivo está integrado por miembros elegidos por la Confederación de la Producción y del Comercio (CPC), la Corporación Nacional Privada de Desarrollo Social (CNPDS) y el Servicio de Cooperación Técnica (SERCOTEC), filial de CORFO.