Актуальные заказы по Data Scientists

Lead Data Engineer

Удаленно
Full-time

The project, a platform for creating and publishing content on social media using artificial intelligence tools, is looking for a Lead Data Engineer.


Responsibilities:

- Design, develop, and maintain robust and scalable data pipelines for collecting, processing, and storing data from diverse social media sources and user interactions.

- Design of data warehouse.

- Implement rigorous data quality checks and validation processes to uphold the integrity.

accuracy, and reliability of social media data used by our AI models.

- Automate Extract, Transform, Load (ETL) processes to streamline data ingestion and transformation, reducing manual intervention and enhancing efficiency.

- Continuously monitor and optimize data pipelines to improve speed, reliability, and scalability, ensuring seamless operation of our AI Assistant.

- Collaborate closely with Data Scientists, ML Engineers, and cross-functional teams to understand data requirements and provide the necessary data infrastructure for model development and training.

- Enforce data governance practices, guaranteeing data privacy, security, and compliance with relevant regulations, including GDPR, in the context of social media data.

- Establish performance benchmarks and implement monitoring solutions to identify and address bottlenecks or anomalies in the data pipeline.

- Collaborate with data analysts and business teams to design interactive dashboards that enable data-driven decision-making.

- Develop and support data marts and dashboards that provide real-time insights into social media data.

- Stay updated with emerging data technologies, tools, and frameworks, evaluating their potential to improve data engineering processes.


Qualifications:

- Bachelor's or Master's degree in Computer Science, Data Engineering, or a related field.

- Proven experience in data engineering, focusing on ETL processes, data pipeline development, and data quality assurance.

- Strong proficiency in programming languages such as Python, SQL and knowledge of data engineering libraries and frameworks.

- Experience with cloud-based data storage and processing solutions, such as AWS, Azure, or Google Cloud.

- Familiarity with DataOps principles and Agile methodologies.

- Excellent problem-solving skills and the ability to work collaboratively in a cross-functional team.

- Strong communication skills to convey technical concepts to non-technical stakeholders.

- Knowledge of data governance and data privacy regulations is a plus.

Junior Data Analyst

Офис
Full-time
Постоянная работа
Требуется Junior Data Analyst для работы над трейдинговым продуктом. Задачи: - анализировать и оптимизировать текущие маркетинговые процессы; - поиск идей и областей, в которых можно улучшить данные; - визуализировать и представить результаты; - автоматизация отчетов и процессов; - работа с несколькими командами (предпочтительно по маркетингу), чтобы выяснить потребности и предложить соответствующие решения, которые окажут значительное влияние. Требования: - глубокое понимание структур данных и алгоритмов; - опыт работы с Python; - достаточно минимального опыта с Pandas, Numpy, Matplotlib); - знание SQL; - сильные аналитические и коммуникативные навыки; - опыт практического интеллектуального анализа данных и работы с большими объемами данных; - опыт работы с AWS или DataBricks является плюсом; - понимание того, как работает маркетинг, является плюсом; - образование в области естественных наук, экономики, математики, информатики, статистики; - уровень английского - С2; - будет плюсом, но не обязательно: PySpark, PowerBI, Klipfolio.

Инженер по обработке данных

Удаленно
Full-time
Проектная занятость
Ищем старших инженеров по обработке данных для крупной телерадиовещательной компании в Германии. Сфера услуг: - Реализация конвейеров данных для подготовки, предоставления и версионирования данных для обучения моделей; - Консультирование Data Scientists по вопросам разработки моделей машинного обучения, особенно в части продуктивной работы этих моделей; - Разработка и реализация микросервисов для предоставления моделей через REST API, включая функции мониторинга продуктивной работы этих моделей; - Развертывание микросервисов в продуктивной облачной среде с учетом требований высокой доступности. Используемый стек технологий: - Google Cloud Platform, Terraform, GitLab; - Kubernetes, Docker, Airflow, MLflow; - BigQuery, BigTable; - Python, Pyspark, SQL; - REST API. Продолжительность: 2 месяца + возможность продления.

KCH_Data scientist

Data scientist to develop AI-based BCI solutions based on the eye-tracker and EEG signal. Primary focus will be in applying data mining techniques, doing statistical analysis, and building high quality prediction systems integrated with our products. Responsibilities: Developing data filtering, quality assessment and artefact detection solutions. Doing ad-hoc analysis and presenting results in a clear manner Maintaining data collection experiments and studies. Developing and training ML/DL classifiers on biosignal data. Skills and Qualifications: Excellent understanding of machine learning techniques and algorithms, such as k-NN, Naive Bayes, SVM, Decision Forests, etc. Experience with common data science toolkits, python/numpy/pytorch Great communication skills, responsibility and discipline. Good applied statistics skills, such as distributions, statistical testing, regression, etc. Good scripting and programming skills Good research skills / experience with working with scientific literature.