HashiCorp Logo

HashiCorp

Data Engineer II

Posted Yesterday
Be an Early Applicant
Canada
Mid level
Canada
Mid level
As a Data Engineer II, you will optimize data architecture, develop scalable data pipelines, collaborate with analytics teams, ensure data quality, and design data integrations. You'll utilize various cloud services, write unit tests, and document processes while supporting real-time data integrations and effectively communicating with stakeholders.
The summary above was generated by AI

À propos de l'équipe :

Notre mission en tant qu'organisation d'Analytique des Données et d'Ingénierie est de permettre à HashiCorp d'exploiter les données comme un atout stratégique en fournissant des solutions de données fiables, évolutives et efficaces. Notre objectif ultime est de permettre à nos parties prenantes de prendre des décisions éclairées basées sur les données et d'atteindre des objectifs commerciaux critiques. Nous recherchons un ingénieur de niveau intermédiaire pour rejoindre notre équipe !

Dans ce rôle, vous pouvez vous attendre à :

  • Superviser et gouverner l'expansion de l'architecture des données existantes et optimiser les performances des requêtes de données selon les meilleures pratiques.
  • Développer et maintenir des pipelines de données évolutifs et mettre en place de nouvelles intégrations d'API pour soutenir l'augmentation continue du volume et de la complexité des données.
  • Collaborer avec les équipes d'analyse et d'affaires pour améliorer les modèles de données qui alimentent les outils d'intelligence d'affaires, augmentant ainsi l'accessibilité des données et favorisant la prise de décisions basées sur les données au sein de l'organisation.
  • Mettre en œuvre des processus et des systèmes pour surveiller la qualité des données, en garantissant que les données de production sont toujours fiables et disponibles pour les principales parties prenantes et les processus commerciaux qui en dépendent.
  • Écrire des tests unitaires/d'intégration, contribuer à l'encyclopédie d'ingénierie et documenter son travail.
  • Effectuer des analyses de données nécessaires pour résoudre les problèmes liés aux données et aider à la résolution de ces derniers.
  • Concevoir des intégrations de données et un cadre de qualité des données.
  • Concevoir et évaluer des outils open-source et des outils de fournisseurs pour la traçabilité des données.
  • Travailler en étroite collaboration avec toutes les unités commerciales et les équipes d'ingénierie pour développer une stratégie pour l'architecture à long terme de la plateforme de données.
  • Développer les meilleures pratiques pour la structure des données afin d'assurer la cohérence au sein du système.

Vous êtes un bon candidat pour notre équipe si vous avez :

  • Baccalauréat ou maîtrise en génie informatique, informatique ou domaine connexe.
  • Expérience dans le développement et le déploiement de pipelines de données, de préférence dans le Cloud.
  • Minimum de 2 ans d'expérience avec Snowflake - Snowflake SQL, Snow Pipe, Streams, Stored Procedure, Task, Hashing, Row Level Security, Time Travel, etc.
  • Expérience pratique avec Snowpark et le développement d'applications avec Snowpark et Streamlit.
  • Maîtrise des pipelines ETL ou ELT et des différents aspects, terminologies avec SQL pur comme SCD Dimensions, Delta Processing, etc.
  • Expérience avec les services Cloud AWS - S3, Lambda, Glue, Athena, IAM, CloudWatch.
  • Expérience pratique dans le développement et la maintenance d'API (API Restful) avec des technologies Cloud (comme AWS API Gateway, AWS Lambda, etc.).
  • Expérience dans la création de pipelines pour l'intégration en temps réel et quasi temps réel en travaillant avec différentes sources de données - fichiers plats, XML, JSON, fichiers Avro et bases de données.
  • Maîtrise de Python/Go pour écrire des fonctions maintenables, réutilisables et complexes pour le traitement des données en backend.
  • Le développement frontend avec Python est un atout, mais pas nécessaire.
  • Solides compétences en communication écrite et orale avec la capacité de synthétiser, simplifier et expliquer des problèmes complexes à différents publics.


About the team:

Our mission as a Data Analytics & Engineering organization is to enable HashiCorp to leverage data as a strategic asset by providing reliable, scalable, and efficient data solutions. Our ultimate goal is to enable our stakeholders to make informed, data driven decisions, and achieve critical business objectives. We are seeking a mid-level engineer to join our team!

In this role you can expect to:

  • Oversee and govern the expansion of existing data architecture and the optimization of data query performance via best practices.
  • Develop and maintain scalable data pipelines and builds out new API integrations to support continuing increases in data volume and complexity.
  • Collaborates with analytics and business teams to improve data models that feed business intelligence tools, increasing data accessibility and fostering data-driven decision making across the organization.
  • Implements processes and systems to monitor data quality, ensuring production data is always reliable and available for key stakeholders and business processes that depend on it.
  • Writes unit/integration tests, contributes to engineering wiki, and documents work.
  • Performs data analysis required to troubleshoot data related issues and assist in the resolution of data issues.
  • Designs data integrations and data quality framework.
  • Designs and evaluates open source and vendor tools for data lineage.
  • Works closely with all business units and engineering teams to develop strategy for long term data platform architecture.
  • Develop best practices for data structure to ensure consistency within the system

You may be a good fit for our team if you have:

  • Bachelor's or Master's in computer engineering, computer science or related area.
  • Experience in developing and deploying data pipelines, preferably in the Cloud..
  • Minimum 2 years of experience with snowflake- snowflake SQL, Snow pipe, streams, Stored procedure, Task, Hashing, Row Level Security, Time Travel etc.
  • Hands on experience with Snowpark and App development with Snowpark and Stream lit.
  • Proficient in ETL or ELT Data Pipelines and various aspects, terminologies with Pure SQL like SCD Dimensions, Delta Processing etc.
  • Working with AWS cloud services - S3, Lambda, Glue, Athena, IAM, CloudWatch.
  • Hands-on experience in API (Restful API) development and maintenance with Cloud technologies( Like AWS API Gateway, AWS lambda etc).
  • Experience in creating pipelines for real time and near real time integration working with different data sources - flat files, XML, JSON, Avro files and databases.
  • Fluent in Python/Go language to be able to write maintainable, reusable, and complex functions for backend data processing. 
  • Front development with python is good to have but not necessary.
  • Robust written and oral communication skills with the ability to synthesize, simplify and explain complex problems to different audiences.

#LI-Remote

Individual pay within the range will be determined based on job related-factors such as skills, experience, and education or training.

The base pay range for this role is:

$110,500$130,000 CAD

“HashiCorp is an IBM subsidiary which has been acquired by IBM and will be integrated into the IBM organization. HashiCorp will be the hiring entity. By proceeding with this application you understand that HashiCorp will share your personal information with other IBM subsidiaries involved in your recruitment process, wherever these are located. More information on how IBM protects your personal information, including the safeguards in case of cross-border data transfer, are available here: link to IBM privacy statement.”

Top Skills

APIs
Athena
AWS
Cloudwatch
Glue
Go
Iam
Lambda
Python
S3
Snowflake
Snowpipe
SQL
Streamlit
Streams

Similar Jobs

17 Days Ago
Hybrid
Toronto, ON, CAN
Senior level
Senior level
Cloud • Mobile • Software
As a Data Engineer at BuildOps, you will design and maintain data pipelines, focusing on data processing, automation, and machine learning enhancement. Collaboration with various teams to resolve technical data challenges is key, as is the continuous improvement of data workflows and ETL infrastructure.
17 Days Ago
Easy Apply
Hybrid
Toronto, ON, CAN
Easy Apply
Expert/Leader
Expert/Leader
Artificial Intelligence • Marketing Tech • Software
As a Principal Data Engineer, you will drive the direction of the Data Warehouse, enabling data access across departments and designing data pipelines to handle massive data ingestion and ensure compliance with data regulations. You will mentor less experienced team members and optimize pipeline performance.
Yesterday
Toronto, ON, CAN
Senior level
Senior level
Fintech • Insurance • Financial Services
As a Lead Data Engineer, you will build and maintain high-quality software, develop data pipelines, and manage cloud platforms like Azure and AWS while mentoring team members and participating in Agile methodologies to drive technology solutions for Manulife.
Top Skills: AWSAzureData BricksData LakeHadoopMySQLPostgresScripting LanguagesSpark

What you need to know about the Calgary Tech Scene

Employees can spend up to one-third of their life at work, so choosing the right company is crucial, not just for the job itself but for the company culture as well. While startups often offer dynamic culture and growth opportunities, large corporations provide benefits like career development and networking, especially appealing to recent graduates. Fortunately, Calgary stands out as a hub for both, recognized as one of Startup Genome's Top 100 Emerging Ecosystems, while also playing host to a number of multinational enterprises. In Calgary, job seekers can find a wide range of opportunities.

Sign up now Access later

Create Free Account

Please log in or sign up to report this job.

Create Free Account