Hotline 0906.800.096

Chuyên viên phân tích Dữ liệu lớn - Big Data

Khóa học đầu tiên tại TPHCM về Dữ liệu lớn
Phân tích dữ liệu: Nghề vàng thời kỷ nguyên số
Sở hữu bằng cấp Ấn Độ, có giá trị toàn cầu
Giảng viên là những chuyên gia đầu ngành về công nghệ số hóa
Chương trình được cập nhật mới nhất theo chuẩn Ấn Độ

ĐĂNG KÝ NGAY

Dữ liệu lớn (Big Data) thường bao gồm các bộ dữ liệu với quy mô vượt quá khả năng nắm bắt, quản lý và xử lý của các công cụ phần mềm thông dụng trong khoảng thời chấp nhận. Dữ liệu lớn là tập hợp các kỹ thuật và công nghệ đòi hỏi cách tích hợp mới nhằm khám phá những giá trị tiềm ẩn to lớn từ những tập hợp dữ liệu lớn, đa dạng, phức tạp về quy mô.

Năm 2012, Gartner định nghĩa “Dữ liệu lớn là những tài sản thông tin với ba chiều tăng trưởng (3V), tăng về lượng (volume), tăng về tốc độ (velocity), tăng về chủng loại (variety), do đó cần các hình thức xử lý mới để nâng cao khả năng ra quyết định, khám phá giá trị nội tại và tối ưu hóa quy trình làm việc”.

Mục tiêu của chương trình học nhằm giúp sinh viên làm quen với những kiến thức và kỹ năng cần thiết để trở thành những chuyên viên Dữ liệu lớn có tay nghề và khả năng tìm việc. Điều quan trọng cần có cho một chuyên viên Dữ liệu lớn là kiến thức lập trình Java vì Hadoop & Hive được viết bằng Java.

THỜI GIAN ĐÀO TẠO

280 giờ (12 tháng)

YÊU CẦU ĐẦU VÀO

- Quen với môi trường làm việc trên hệ điều hành Windows, Microsoft Offcie.

- Có kiến thức cơ bản về ngôn ngữ lập trình Java (hoặc một ngôn ngữ lập trình hướng đối tượng khác như C++, C#…).

- Đã làm quen với môi trường hệ điều hành Linux (như Fedora, CentOS, Ubuntu…) ở mức độ hiểu và sử dụng được cơ chế dòng lệnh (command line) trên Linux.

- Đọc & hiểu tiếng Anh

ƯU ĐIỂM CHƯƠNG TRÌNH

 - Bằng cấp do NIIT (Ấn Độ) cấp, có giá trị toàn cầu.

 - Học 100% trên máy tính, phòng Lab

 - Môi trường học tập theo chuẩn quốc tế

 - Giáo trình gốc từ học viện NIIT Ấn Độ

 

CÁC CÔNG NGHỆ ĐƯỢC ĐÀO TẠO

KIẾN THỨC VÀ KỸ NĂNG ĐẠT ĐƯỢC SAU KHÓA HỌC

-  Hiểu khái niệm dữ liệu lớn.

- Nắm vững các thành phần của Hadoop, hệ thống tập tin phân tán, cài đặt Hadoop.

- Nắm vững mô hình lập trình MapReduce, viết được các chương trình MapReduce và áp dụng được một số mẫu thiết kế MapReduce.

- Quản trị và tối ưu hóa hiệu năng Hadoop.

- Hiểu các khái niệm cơ bản về Zookeeper.

- Cài đặt được HBase cluster, hiểu các khái niệm cơ bản về cơ sở dữ liệu theo cột, phân tán HBase, HBase Coprocessor, kiến trúc HBase.

- Ứng dụng nâng cao của HBase, MapReduce trên HBase.

- Quản trị HBase cluster và tối ưu hóa.

- Hiểu cơ bản về Hive, quản lý Hive.

- Nắm rõ cú pháp HQL, sử dụng các hàm Hive, tích hợp HBase và Hive

- Tối ưu hóa Hive.

- Hiểu các khái niệm cơ bản, các thành phần của framework xử lý dữ liệu thời gian thực Storm.

- Tích hợp và quản lý Storm.

- Sử dụng được công cụ Sqoop để nhập/xuất (importing/exporting) dữ liệu giữa Hadoop HDFS và các cơ sở dữ liệu quan hệ.

GIẢNG VIÊN

Giảng viên giàu kinh nghiệm do học viện NIIT tuyển chọn, là các chuyên gia trong lĩnh vực CNTT với nhiều kinh nghiệm thực tế, kinh nghiệm giảng dạy cùng với phương pháp giảng dạy đầy sáng tạo LACC từ NIIT.

CÁC DỊCH VỤ VÀ CHÍNH SÁCH HỖ TRỢ

- Sinh viên được hỗ trợ học tập qua cố vấn học tập, thư viện

- Được sử dụng các dịch vụ học tập trực tuyến từ NIIT như Reference Reading links, Discussion Forums, Practice Tests…

- Được tham gia các hoạt động nghiên cứu, giao lưu, hội thảo…

BẰNG CẤP

Văn bằng Professional Diploma in Digital Transformation - Big Data  do Học viện NIIT (Ấn Độ), Học viện CNTT số 1 Châu Á cấp và có giá trị toàn cầu.

CƠ HỘI VIỆC LÀM

- Chuyên viên phát triển Hadoop (Hadoop Developer)

- Chuyên viên phân tích Dữ liệu lớn (Big Data Analyst).

NỘI DUNG ĐÀO TẠO

Môn học

Thời lượng (giờ)

Hadoop(MapReduce/HDFS)

102

Zookeeper

16

Hbase

70

Hive

30

Storm Distributed Live Computing

43

Sqoop

19

Tổng cộng

280

 
Vui cùng Worldcup