Что Spark грядущий нам готовит?

День 2 / 13:45  / Зал 4  / Язык: RU

Вышел Spark 2.0, и его API наконец-то стабилизировался, унифицировался и стримизировался. С этого релиза мы получаем универсального бойца, который будет говорить сразу на нескольких языках (Java, Scala, R, Python) и делать сразу значительное количество вещей. В докладе Алексей сосредоточится на том, как заставить машинное обучение поработать на вас при помощи MLlib и как использовать Kafka в качестве стандартного поставщика данных для ваших DStreams.

Доклад подходит тем, кто уже имеет опыт в BigData/Hadoop/Spark до 1.3, но хочет знать больше и живо следит за новыми релизами, мечтая втащить их в продашкн.

Также доклад является обобщенным ответом на просьбу потрогать near real time, а не только batch процессинг.



Алексей Зиновьев

Алексей Зиновьев, EPAM

Тренер по Java/BigData в компании EPAM, с Hadoop/Spark и прочей бигдатой дружит с 2012 года, форкается и пуллреквестит с 2014, рассказывает с 2015. Особенно любит текстовые данные и большие графы.


Контакты

program@jokerconf.com
Программа конференции
program@jokerconf.com
sponsors@jokerconf.com
Спонсоры
sponsors@jokerconf.com
partners@jokerconf.com
Партнеры
partners@jokerconf.com