Text, Advertisement

 

 

Senior Data Engineer

  • R06207
  • On Site
  • Tan Thuan Ward, Hồ Chí Minh, Vietnam
  • Data Analysis
  • Full Time
  • 3_Senior
View favorites

Job Description

MiTek® is a global provider of building solutions for the residential and commercial construction industries. Utilizing software, services, engineered products, and automated manufacturing equipment, MiTek partners with clients to accelerate their genius and deliver breakthroughs in building.

With a rich 60-year history and a network of 6,500 team members worldwide, MiTek pairs local expertise with global capabilities. As a Berkshire Hathaway (NYSE: BRK-A, NYSE: BRK-B) company since 2001, MiTek has a record of continuous growth and innovation.

Learn more at www.mii.com.


What You Will Do:

Responsibilities

  • Tích hợp dữ liệu & Luồng dữ liệu (Pipelines)
    • Hỗ trợ thiết kế, xây dựng và duy trì các luồng dữ liệu ADF (Azure Data Factory) để tiếp nhận, chuyển đổi và tải dữ liệu từ nhiều nguồn vào Kho dữ liệu (Data Warehouse).
    • Đảm bảo các luồng dữ liệu hoạt động ổn định, hiệu quả và có khả năng mở rộng để đáp ứng nhu cầu dữ liệu ngày càng phát triển.
  • Mô hình hóa & Kiến trúc Dữ liệu
    • Thiết kế và triển khai các mô hình dữ liệu đa chiều (mô hình sao) với các bảng fact và dimension.
    • Duy trì tính nhất quán của lược đồ và đảm bảo các mô hình dữ liệu phù hợp với nhu cầu báo cáo.
  • Tích hợp API
    • Phát triển các quy trình để kết nối với API của bên thứ ba nhằm trao đổi dữ liệu.
    • Triển khai cơ chế xử lý lỗi, giám sát và tài liệu hóa cho các quy trình tích hợp.
  • Tích hợp liên tục / Triển khai liên tục (CI/CD)
    • Áp dụng các quy trình CI/CD để tự động hóa việc triển khai các luồng dữ liệu, tập lệnh SQL và báo cáo.
    • Sử dụng các hệ thống quản lý phiên bản (ví dụ: Git) để quản lý mã nguồn và đảm bảo khả năng tái tạo.
    • Phối hợp với đội ngũ DevOps và IT để tối ưu hóa quy trình triển khai và duy trì chất lượng.
  • Vận hành & Giám sát Dữ liệu
    • Giám sát quá trình chạy các luồng dữ liệu thô thành công để đảm bảo dữ liệu được nhập kịp thời từ tất cả các nguồn.
    • Theo dõi các chuyển đổi dữ liệu thô thành mô hình sao, xác thực các bảng dimension và fact được điền chính xác.
    • Ghi lại và cảnh báo khi có lỗi: thiết lập các thông báo tự động để chủ động phát hiện sự cố.
  • Hợp tác & Quản lý Các Bên Liên Quan
    • Thu thập yêu cầu từ người dùng của doanh nghiệp và của các bên liên quan về kỹ thuật, sau đó chuyển đổi chúng thành các giải pháp dữ liệu khả thi.
    • Tham gia các cuộc họp nhóm, chia sẻ kiến thức và đảm bảo giao tiếp rõ ràng với đồng nghiệp và các bên liên quan.
  • Cải tiến Liên tục
    • Chủ động tìm kiếm các cơ hội để cải thiện hiệu quả của quy trình dữ liệu, chất lượng dữ liệu và khả năng tự động hóa.
    • Tài liệu hóa các quy trình làm việc và đóng góp vào việc quản trị dữ liệu cùng các phương pháp tốt nhất.

  • Data Integration & Pipelines
    ◦ Support the design, build and maintenance of ADF pipelines to ingest, transform, and load data from multiple sources into the Data Warehouse.
    ◦ Ensure pipelines are reliable, efficient, and scalable for growing data needs.
  • Data Modeling & Architecture
    • Design and implement dimensional (star schema) models with fact and dimension tables.
    • Maintain schema consistency and ensure data models align with reporting needs.
  • API Integrations
    • Develop processes to connect with 3rd-party APIs for data exchange.
    • Implement error handling, monitoring, and documentation for these integrations
  • CI/CD
    • Implement CI/CD practices to automate deployment of data pipelines, SQL scripts, and reports.
    • Use version control systems (e.g., Git) to manage code and ensure reproducibility.
    • Collaborate with DevOps and IT teams to streamline deployment processes and maintain quality.
  • Data Operations/Monitoring
    • Monitor successful raw data pipeline runs to ensure timely ingestion of data from all sources.
    • Track transformation jobs converting raw data into star schemas, validating that dimensions and facts are populated correctly.
    • Log and alert on failures: setup automated notifications to surface issues proactively.
  • Collaboration & Stakeholder Management
    • Gather requirements from business users and technical stakeholders’ users and translate them into actionable data solutions.
    • Participate in team meetings, share knowledge, and ensure clear communication with colleagues and stakeholders.
  • Continuous Improvement
    • Actively seek opportunities to improve pipeline efficiency, data quality, and automation.
    • Document workflows and contribute to data governance and best practices.


Qualifications

  • Tốt nghiệp đại học chuyên ngành Khoa học Máy tính, Khoa học Dữ liệu, Hệ thống Thông tin hoặc các ngành liên quan (hoặc có kinh nghiệm làm việc thực tế tương đương).
  • Có trên 3 năm kinh nghiệm làm việc trong lĩnh vực kỹ thuật dữ liệu, phân tích dữ liệu hoặc báo cáo dữ liệu.
  • Có kinh nghiệm thực tế với:
    • SQL (truy vấn, chuyển đổi dữ liệu, tối ưu hiệu suất).
    • Các công cụ của Azure Data: Data Factory (ADF), Databricks, Synapse Analytics, SQL Database.
    • Power BI để tạo báo cáo và dashboard.
    • Các quy trình ETL / ELT để di chuyển và chuyển đổi dữ liệu.
  • Có kinh nghiệm làm việc với tích hợp API (ưu tiên REST/JSON).
  • Có kinh nghiệm làm việc trong môi trường điện toán đám mây (ưu tiên Azure).
  • Kỹ thuật triển khai CI/CD.
  • Trình độ tiếng Anh (CEFR) B2+ trở lên.
  • Am hiểu sâu sắc các khái niệm về kho dữ liệu (bao gồm mô hình sao, fact/dimension)
  • Có kiến thức về các quy trình ETL/ELT và các phương pháp tích hợp dữ liệu tốt nhất.
  • Có kinh nghiệm với Databricks hoặc các framework xử lý và chuyển đổi dữ liệu khác.
  • Thành thạo SQL để phân tích, xác thực dữ liệu và tối ưu hiệu suất.
  • Có kinh nghiệm thực tế (tối thiểu) với Power BI để tạo dashboard và báo cáo.
  • Có hiểu biết về việc sử dụng API (xác thực, truy xuất dữ liệu, xử lý lỗi).
  • Có khả năng thiết lập và duy trì mối quan hệ làm việc tích cực với các bên liên quan cả trong và ngoài công ty.
  • Sẵn sàng học hỏi và làm việc với các công cụ, công nghệ dữ liệu mới khi nhu cầu kinh doanh thay đổi.
  • Chủ động đầu tư vào việc học hỏi — thông qua các chương trình đào tạo của công ty hoặc các nguồn bên ngoài — để cập nhật các công nghệ thị trường.
    Đồng thời, hỗ trợ mảng phân tích dữ liệu của công ty bằng cách đóng góp các ý tưởng chuyên sâu trong lĩnh vực tích hợp và kiến trúc dữ liệu

  • Bachelor’s degree in Computer Science, Data Science, Information Systems, or related field. preferred
  • 3+ Years experience in data engineering, data analytics, or reporting.
  • Hands-on experience with:
    • SQL (querying, transformations, optimization).
    • Azure Data Tools: Data Factory (ADF), Databricks, Synapse Analytics, SQL Database.
    • Power BI for reporting and dashboards.
    • ETL / ELT processes for moving and transforming data.
  • Exposure to working with API integrations (REST/JSON preferred).
  • Experience working in cloud-based environments (Azure preferred).
    CI/CD Deployment techniques.
  • English level (CEFR) B2+ or above. preferred
  • Strong understanding of data warehouse concepts (star schema, fact/dimension modeling). preferred
  • Knowledge of ETL/ELT pipelines and data integration best practices. preferred
  • Familiarity with Databricks or other data transformation frameworks.
  • Proficiency in SQL for analysis, data validation, and performance tuning.
  • Hands-on experience with Power BI for dashboard/report creation. (Minimal).
  • Understanding of API consumption (authentication, data retrieval, error handling).
  • Ability to establish and maintain positive working relationships with internal and external stakeholders.
  • Comfortable learning and working with new data tools and technologies as business needs evolve.
  • Invest in learning – through MiTek or other sources – to remain current with technologies used in the market and support MiTek Analytics in terms of contributions to thought leadership in the Data Architecture and Integration domains.
  • Equivalent combination of experience and education which clearly indicates the ability to perform the essential functions of the position may substitute on a year for year basis


Soft Skills

  • Willingness to Learn: Open-minded, adaptable, and committed to continuous improvement.
  • Proactive Problem Solver: Anticipates challenges and takes initiative to resolve them
  • Collaboration: Able to work effectively across teams, departments, and cultures, often spanning different time zones.
  • Communication: Listens actively, interprets stakeholder needs clearly, and communicates findings in a way that is easy to understand.
  • Ownership: Takes responsibility for assigned tasks and follows through to completion.
  • Attention to Detail: Ensures accuracy and reliability in data solutions, avoiding errors that impact reporting.
  • Time Management: Able to prioritize and deliver multiple tasks under deadlines.

 


Physical Demands
This role is performed in an office environment where a computer, telephone and other office equipment are used as needed to perform the duties of the role.

People, Person, Building, Staircase, Handrail, Sandal, Shopping Mall, Handbag, Shoe, Plate
Join Our Talent Community