Что Spark грядущий нам готовит?
День 2 / 13:45 / Зал 4 / Язык: RUВышел Spark 2.0, и его API наконец-то стабилизировался, унифицировался и стримизировался. С этого релиза мы получаем универсального бойца, который будет говорить сразу на нескольких языках (Java, Scala, R, Python) и делать сразу значительное количество вещей. В докладе Алексей сосредоточится на том, как заставить машинное обучение поработать на вас при помощи MLlib и как использовать Kafka в качестве стандартного поставщика данных для ваших DStreams.
Доклад подходит тем, кто уже имеет опыт в BigData/Hadoop/Spark до 1.3, но хочет знать больше и живо следит за новыми релизами, мечтая втащить их в продашкн.
Также доклад является обобщенным ответом на просьбу потрогать near real time, а не только batch процессинг.