Работа с терабайтами и петабайтами данных требует инструментов, способных распределять нагрузку на тысячи узлов — именно для этого создана экосистема Apache Hadoop. На курсе вы разберете архитектуру распределенной обработки информации, которая лежит в основе высоконагруженных систем уровня Facebook.
Внутри программы — глубокое погружение в HDFS для хранения колоссальных объемов данных, настройка вычислительных кластеров и использование фреймворка MapReduce для управления распределенными задачами. Вы научитесь настраивать виртуальные среды для запуска приложений и освоите YARN для эффективного управления ресурсами. После обучения вы сможете проектировать и развертывать распределенные приложения, способные масштабироваться на любые объемы данных.
Отзывов пока нет. Будьте первым!