Ingeniero en la nube / Remoto / Contratación a tiempo completo Fully Remote - US

Ingeniero en la nube / Remoto / Contratación a tiempo completo

Tiempo completo • Fully Remote - US
Contratación en nombre de un cliente para el papel de

Ingeniero de la nube
Estamos buscando ingenieros de datos calificados para respaldar una iniciativa de migración de datos empresariales de alto impacto. El objetivo es migrar los activos de almacenamiento de datos y las canalizaciones ETL de Teradata a Google Cloud Platform (GCP). El rol implica el desarrollo, las pruebas y la optimización prácticos de canalizaciones de datos y estructuras de almacén en GCP, lo que garantiza una interrupción mínima y un rendimiento máximo.

Responsabilidades clave:

• Liderar y ejecutar la migración de datos y flujos de trabajo ETL de Teradata a servicios basados en GCP como BigQuery, Cloud Storage, Dataflow, Dataproc y Composer (Airflow). • Analice y asigne cargas de trabajo de Teradata existentes a equivalentes de GCP apropiados. • Reescribir la lógica, las secuencias de comandos y los procedimientos de SQL en formatos compatibles con GCP (por ejemplo, SQL estándar para BigQuery). • Colaborar con los arquitectos de datos y las partes interesadas del negocio para definir estrategias de migración, validar la calidad de los datos y garantizar el cumplimiento. • Desarrollar flujos de trabajo automatizados para el movimiento y la transformación de datos utilizando herramientas nativas de GCP y/o scripts personalizados (Python). • Optimizar el almacenamiento de datos, el rendimiento de las consultas y los costes en el entorno de la nube. • Implemente la supervisión, el registro y las alertas para todas las canalizaciones de migración y cargas de trabajo de producción.

Habilidades requeridas:

• 4 a 6+ años de experiencia en Ingeniería de Datos, con al menos 2 años en GCP. • Sólida experiencia práctica en almacenamiento de datos de Teradata, BTEQ y SQL complejo. • Sólidos conocimientos de los servicios de GCP: BigQuery, Dataflow, Cloud Storage, Pub/Sub, Composer y Dataproc. • Experiencia con pipelines ETL/ELT utilizando herramientas de scripting personalizadas (Python/Java). • Capacidad comprobada para refactorizar y traducir la lógica heredada de Teradata a GCP. • Familiaridad con las prácticas de CI/CD, GIT, Argo CD y DevOps en entornos de datos en la nube. • Fuertes habilidades analíticas, de resolución de problemas y de comunicación.

Calificaciones preferidas:

• Certificación GCP (Preferido: Professional Data Engineer). • Exposición a Apache Kafka, Cloud Functions o canalizaciones de IA/ML en GCP. • Experiencia trabajando en el ámbito de la salud. • Conocimiento de la gobernanza, seguridad y cumplimiento de datos en ecosistemas de nube. Habilidades conductuales: • Mentalidad de resolución de problemas • Atención al detalle • Responsabilidad y propiedad • Curiosidad y mantenerse al día con los servicios de GCP en evolución

Esta es una posición remota.

Compensación: $90,000.00 por año




(si ya tienes un currículum en Indeed)

O aplicar aquí.

* campos requeridos

Ubicación
Or
Or