Bỏ qua để đến Nội dung

CT GROUP

Middle Data Engineer

Thành phố Hồ Chí Minh, Việt Nam
Lịch 31/07/2025
| Toàn thời gian
Mức lương
Mức lương

Thỏa thuận

location
Nơi làm việc

Thành phố Hồ Chí Minh

ngày
Hạn nộp

31/07/2025

target
Số lượng cần tuyển

1

Bộ phận: Ban Công nghệ dữ liệu & Trí tuệ nhân tạo (DAIT) - CT Group

Mục tiêu công việc 

Thiết kế, xây dựng và vận hành hạ tầng dữ liệu hiện đại trên nền tảng đám mây Azure, tập trung vào kiến trúc Data Lakehouse nhằm hỗ trợ lưu trữ, xử lý và phân tích dữ liệu cho sản phẩm, hệ thống AI và hoạt động kinh doanh.

Đảm bảo tính sẵn sàng, độ tin cậy và hiệu quả chi phí của dữ liệu.

NHIỆM VỤ CHÍNH

  • Thiết kế và triển khai kiến trúc Data Lakehouse trên nền tảng Azure sử dụng Azure Data Lake Storage Gen2, Delta Lake, Azure Synapse hoặc Databricks.
  • Phát triển các pipeline xử lý dữ liệu (ETL/ELT) từ nhiều nguồn khác nhau (hệ thống tại chỗ, đám mây, luồng dữ liệu, API, tệp tin, v.v.).
  • Hợp tác với các nhóm AI, BI và DevOps để tích hợp dữ liệu vào các ứng dụng phân tích, mô hình học máy hoặc hệ thống báo cáo thông minh.
  • Tối ưu hiệu năng của hệ thống lưu trữ và truy vấn dữ liệu quy mô lớn (big data), đảm bảo hiệu quả chi phí và khả năng mở rộng.
  • Triển khai các quy trình kiểm tra chất lượng dữ liệu, quản lý metadata và truy xuất nguồn gốc dữ liệu (data lineage).
  • Phối hợp với các nhóm hạ tầng để vận hành hệ thống dữ liệu an toàn, tuân thủ các giao thức bảo mật và quy định nội bộ.
  • Viết tài liệu kỹ thuật và hỗ trợ chuyển giao kiến thức cũng như vận hành cho các nhóm sản phẩm và phân tích.

YÊU CẦU CÔNG VIỆC

Học vấn & Kinh nghiệm

  • Tốt nghiệp đại học chuyên ngành Công nghệ Thông tin, Khoa học Dữ liệu, Hệ thống Thông tin hoặc tương đương.

  • Tối thiểu 3 năm kinh nghiệm làm việc ở vị trí Kỹ sư Dữ liệu hoặc vai trò tương đương.

  • Có kinh nghiệm triển khai hạ tầng dữ liệu trên nền tảng Azure Cloud, ưu tiên ứng viên thành thạo:

    • Azure Data Lake Storage Gen2

    • Azure Synapse Analytics, Azure Data Factory, Azure Databricks

    • Azure Event Hub, Azure Stream Analytics hoặc Apache Kafka

  • Thành thạo SQL, Python hoặc PySpark, có hiểu biết sâu về tính toán phân tán.

  • Có kinh nghiệm với các mô hình dữ liệu như Star Schema, Snowflake Schema, Lakehouse Architecture hoặc Delta Lake.

  • Ưu tiên ứng viên từng làm việc với hệ thống dữ liệu quy mô lớn, pipeline thời gian thực hoặc tích hợp mô hình AI/ML.

Kỹ năng mềm

  • Có khả năng làm việc độc lập, chủ động và tư duy hệ thống.
  • Kỹ năng phối hợp tốt với các nhóm kỹ thuật khác (AI, DevOps, Sản phẩm).
  • Tư duy logic, kỹ năng phân tích và giải quyết vấn đề tốt.
  • Sẵn sàng học hỏi công nghệ mới, thích nghi với thay đổi và thử nghiệm.

Quyền lợi

  • Mức lương cạnh tranh theo năng lực và kinh nghiệm
  • Thưởng hiệu suất và ghi nhận đóng góp cá nhân
  • Môi trường kỹ thuật tiên tiến, có cơ hội làm việc với hệ thống dữ liệu lớn và giải pháp AI hiện đại
  • Văn hóa làm việc minh bạch, chuyên nghiệp, hỗ trợ phát triển nghề nghiệp lâu dài

Việc làm liên quan (44 )

Ứng tuyển ngay!