Home
Discovery
Alwayz
Culture
Team
Career
MLOps Engineer
직군
Data
경력사항
경력 3년 이상
고용형태
정규직
근무지
레브잇
서울특별시 관악구 남부순환로 1836 7,8 층
[합류하게 될 팀]
MLOps Engineer는 Data Team에 속해 있습니다.
Data Team은 데이터 기반 의사결정과 데이터 제품을 통해 모든 가격의 비효율을 혁신하고, 고객과 판매자를 더욱 효율적으로 연결합니다.
레브잇의 모든 구성원은 누군가에게 업무를 지시하는 것이 아니라, 목표를 위해 각자 협업하며 업무하고 있습니다.
[합류하면 함께 할 업무]
확장 가능한 MLOps 파이프라인을 구축하고 유지보수하는 것을 담당합니다.
MLflow, Airflow, Kubeflow 등 사내 ML 플랫폼을 구축하고 운영합니다.
Feature Store 운영 및 고도화를 수행합니다.
Milvus 기반의 Vector DB 운영 및 고도화를 수행합니다.
Data Team 전용의 Kubernetes 클러스터를 직접 운영합니다.
필요 시 Python, Go 언어 기반의 ML 애플리케이션 성능을 최적화 합니다.
MLOps 인프라의 SLA를 맞추기 위해 새로운 오픈소스나 솔루션을 검토하고 구축합니다.
DevOps 팀과 협업하여 MLOps 인프라 성능을 모니터링하고 최적화합니다.
[자격 요건]
Kubernetes 위에서 서비스를 개발, 배포하고 운영해보신 분이 필요합니다.
머신러닝에 대한 기본적인 지식이 있거나 Scikit-learn, Tensorflow, Pytorch 등과 같은 ML 관련 프레임워크를 사용해보신 분이 필요합니다.
Python, Go, Java 등 하나 이상의 프로그래밍 언어 활용 능력 및 소프트웨어 개발 역량이 있으신 분이 필요합니다.
Spark 등과 같은 기술을 이용해 데이터 배치 파이프라인의 구축, 개발 경험이 있으신 분이 필요합니다.
탄탄한 CS(Computer Science) 기초 역량이 있으신 분이 필요합니다.
[우대 사항]
MLOps 관련 기술(MLflow, Airflow, Kubeflow 등)을 경험하고 실무에 적용해보신 경험이 있으신 분을 선호합니다.
Vector DB를 사용하거나 운영해보신 경험이 있으신 분을 선호합니다.
GPU를 사용하는 프레임워크를 이용해 개발해보신 경험이 있으신 분을 선호합니다.
데이터 엔지니어링 또는 DevOps 또는 백엔드 개발 업무를 경험해 보신 분을 선호합니다.
AWS 기반의 인프라 구축, 개발 경험이 있으신 분을 선호합니다.
대규모 트래픽 처리 경험이 있으신 분을 선호합니다.
[기술 스택]
Data Storage
S3, Iceberg, Kafka, Schema Registry, Elasticsearch
Database
Redis, Milvus, PostgreSQL, Scylla DB
Data Processing & Transformation
Spark, Flink, Kafka Streams, dbt
Application
Python(FastAPI), Go
CI/CD
Github Actions, ArgoCD
Orchestration
Kubernetes, Docker, Airflow, Kubeflow
Monitoring
Datadog, Grafana, Prometheus, Cloud Watch
[근무 조건]
정규직(수습기간 3개월)
주 5일(월~금) 근무
[합류여정]
서류접수 > 1차 대면 인터뷰(직무 인터뷰) > 2차 대면 인터뷰(컬쳐&최종 인터뷰) > 레퍼런스 체크 > 처우 협의 > 최종합격
서류 검토 중, 실무 역량 검증을 위해 경우에 따라 직무 과제 전형이 추가될 수 있습니다.
[기타사항]
레브잇은 지원자의 역량을 최우선적으로 검토하고 있습니다. 이력서 제출 시 직무와 무관한 개인정보 및 연봉 정보는 삭제 후 지원 부탁드립니다.
이력서 및 제출 서류에 허위 사실이 발견되거나 근무 이력 중 징계사항이 확인될 경우, 채용이 취소될 수 있습니다.
레브잇 내규에 따라 채용 금지자 또는 결격사유 해당자는 채용이 취소될 수 있습니다.
공유하기
MLOps Engineer
[합류하게 될 팀]
MLOps Engineer는 Data Team에 속해 있습니다.
Data Team은 데이터 기반 의사결정과 데이터 제품을 통해 모든 가격의 비효율을 혁신하고, 고객과 판매자를 더욱 효율적으로 연결합니다.
레브잇의 모든 구성원은 누군가에게 업무를 지시하는 것이 아니라, 목표를 위해 각자 협업하며 업무하고 있습니다.
[합류하면 함께 할 업무]
확장 가능한 MLOps 파이프라인을 구축하고 유지보수하는 것을 담당합니다.
MLflow, Airflow, Kubeflow 등 사내 ML 플랫폼을 구축하고 운영합니다.
Feature Store 운영 및 고도화를 수행합니다.
Milvus 기반의 Vector DB 운영 및 고도화를 수행합니다.
Data Team 전용의 Kubernetes 클러스터를 직접 운영합니다.
필요 시 Python, Go 언어 기반의 ML 애플리케이션 성능을 최적화 합니다.
MLOps 인프라의 SLA를 맞추기 위해 새로운 오픈소스나 솔루션을 검토하고 구축합니다.
DevOps 팀과 협업하여 MLOps 인프라 성능을 모니터링하고 최적화합니다.
[자격 요건]
Kubernetes 위에서 서비스를 개발, 배포하고 운영해보신 분이 필요합니다.
머신러닝에 대한 기본적인 지식이 있거나 Scikit-learn, Tensorflow, Pytorch 등과 같은 ML 관련 프레임워크를 사용해보신 분이 필요합니다.
Python, Go, Java 등 하나 이상의 프로그래밍 언어 활용 능력 및 소프트웨어 개발 역량이 있으신 분이 필요합니다.
Spark 등과 같은 기술을 이용해 데이터 배치 파이프라인의 구축, 개발 경험이 있으신 분이 필요합니다.
탄탄한 CS(Computer Science) 기초 역량이 있으신 분이 필요합니다.
[우대 사항]
MLOps 관련 기술(MLflow, Airflow, Kubeflow 등)을 경험하고 실무에 적용해보신 경험이 있으신 분을 선호합니다.
Vector DB를 사용하거나 운영해보신 경험이 있으신 분을 선호합니다.
GPU를 사용하는 프레임워크를 이용해 개발해보신 경험이 있으신 분을 선호합니다.
데이터 엔지니어링 또는 DevOps 또는 백엔드 개발 업무를 경험해 보신 분을 선호합니다.
AWS 기반의 인프라 구축, 개발 경험이 있으신 분을 선호합니다.
대규모 트래픽 처리 경험이 있으신 분을 선호합니다.
[기술 스택]
Data Storage
S3, Iceberg, Kafka, Schema Registry, Elasticsearch
Database
Redis, Milvus, PostgreSQL, Scylla DB
Data Processing & Transformation
Spark, Flink, Kafka Streams, dbt
Application
Python(FastAPI), Go
CI/CD
Github Actions, ArgoCD
Orchestration
Kubernetes, Docker, Airflow, Kubeflow
Monitoring
Datadog, Grafana, Prometheus, Cloud Watch
[근무 조건]
정규직(수습기간 3개월)
주 5일(월~금) 근무
[합류여정]
서류접수 > 1차 대면 인터뷰(직무 인터뷰) > 2차 대면 인터뷰(컬쳐&최종 인터뷰) > 레퍼런스 체크 > 처우 협의 > 최종합격
서류 검토 중, 실무 역량 검증을 위해 경우에 따라 직무 과제 전형이 추가될 수 있습니다.
[기타사항]
레브잇은 지원자의 역량을 최우선적으로 검토하고 있습니다. 이력서 제출 시 직무와 무관한 개인정보 및 연봉 정보는 삭제 후 지원 부탁드립니다.
이력서 및 제출 서류에 허위 사실이 발견되거나 근무 이력 중 징계사항이 확인될 경우, 채용이 취소될 수 있습니다.
레브잇 내규에 따라 채용 금지자 또는 결격사유 해당자는 채용이 취소될 수 있습니다.