Buenos Aires 2012

Quedan pocos lugares disponibles para la capacitación. La inscripción cerrará el 23rd de noviembre. Si estás interesado, ¡inscribite lo antes posible!

¿Por qué realizar esta capacitación?

Esta capacitación está destinada a profesionales que necesiten saber acerca de Big Data – lo que significa y cómo trabajar con ella (haga clic aquí para registrarse y obtener más detalles del evento).

Durante esta sesión de medio día se hablará sobre Big Data en general y las tecnologías específicas utilizadas para resolver problemas de Big Data, incluyendo:

Esta capacitación se basará en la amplia experiencia del instructor con Apple, Groupon, y muchos startups del área de la Bahía (San Francisco), para no sólo explicar lo que estas tecnologías hacen, sino cómo y cuándo tiene sentido usarlas.

La presentación será en inglés, con guías impresas en español de todo el contenido.

Biografía del instructor

Ken Krugler

Ken Krugler ha estado utilizando Hadoop desde su inicio hace seis años, y es un arquitecto promotor, y empresario activo en el campo de Big Data. Su compañía actual (Scale Unlimited) ofrece capacitación y consultoría en Big Data, búsqueda y proyectos de aprendizaje automático para empresas grandes y pequeñas. Habla regularmente en las Cumbres de Hadoop, conferencias Strata y eventos de grupos de usuarios en los EE.UU. y en Europa.

¿Quién puede asistir?

Esta capacitación es apta para desarrolladores, administradores, arquitectos, o cualquier persona que quiera o necesite aprender más sobre el complejo y rápidamente cambiante mundo de soluciones Big Data. No es necesario el conocimiento previo de Hadoop, Cassandra u otras tecnologías de Big Data.

Temario del Curso

  1. ¿Qué es Big Data exactamente?
    • Volumen, velocidad, variedad
    • El Data exhaust ahora vale oro
  2. Cómo trabajar con Big Data
    • Nuevas tecnologías al rescate
    • Hadoop como base
    • Ecosistema Hadoop
    • Servidores con base en la nube
  3. Habilidades esenciales Big Data
    • Gerenciales/Ejecutivas
    • De desarrollo
  4. Map-reduce con Hadoop
    • Almacenamiento y ejecución a escala
    • Hadoop Distributed File System (HDFS)
    • Hadoop Map-reduce
    • ¿Cuándo tiene sentido Hadoop?
  5. Flujos de trabajo con Cascading y Hive
    • Abstracciones en alto nivel de procesamiento de datos
    • El uso de Cascading para problemas complejos de ETL
    • El uso de Hive para consultas ad hoc
  6. Almacenamiento NoSQL con Cassandra y HBase
    • La lógica detrás del movimiento NoSQL
    • Modelar tu data en un mundo plano
    • Cassandra en 10 minutos o menos
    • HBase en pocas palabras
    • Solr como solución NoSQL
  7. Procesamiento en tiempo real con Storm
    • Qué hacer cuando el procesamiento por lotes no posible
    • De qué manera Storm proporciona escalabilidad y fiabilidad
    • Desafíos en la creación de flujos de trabajo basados en Storm