Catalogue de formation

Vous trouverez ici notre catalogue de formations ‘sur étagère’: les programmes qui servent de base et de repères pour ce que nous pouvons réaliser ensemble.

Certaines de ces formations correspondent à des problématiques très précises et répondent à un besoin circonscrit, comme les formations sur une méthode spécifique abordée via le prisme d’un logiciel ; d’autres peuvent s’associer afin de composer un véritable parcours de formation modulaire qui assure une montée en compétences progressive.

Toutes nos formations sont proposées en intra-entreprise, c’est à dire pour une personne, une équipe ou un établissement en particulier: elles peuvent être adaptées à vos contraintes et à vos objectifs dans le cadre de formations sur-mesure.

Plusieurs formations sont aussi proposées en sessions inter-entreprise, c’est-à-dire que vous pouvez décider de vous inscrire individuellement, en toute liberté, à une session proposée à notre calendrier. Bien que les informations disponibles pour chacune de ces formations tentent d’être exhaustives, si vous aviez des questions ou des doutes quant au niveau ou aux prérequis, nous nous ferons un plaisir de valider ensemble l’adéquation entre le programme et votre objectif.

N’hésitez à nous consulter pour déterminer ensemble la forme que prendra votre projet de formation

Nos formations inter-entreprise se tiennent pour l’instant en classe virtuelle, et vous pouvez bénéficier durant toute leur durée de l’accès à notre plateforme de formation dédiée : un espace où participer aux sessions, accéder aux contenus pédagogiques, vous documenter, participer aux sessions, échanger avec les autres apprenants, et plus encore.

Nos conditions Générales de Vente formations sont téléchargeables ci-dessous :

Délais d’accès aux formations

Dans le cadre des inter-entreprises, vous avez la possibilité de vous inscrire jusqu’à 2 jours ouvrés à l’avance, sous réserve de disponibilité. Notre équipe formation prendra contact avec vous pour valider votre participation (réception d’un bon de commande, d’une convention de formation ou d’un paiement) . En cas de prise en charge par un organisme-financeur (OPCO), merci de vérifier leurs conditions spécifiques.

Dans le cadre des formations intra-entreprises, le délai moyen d’accès à nos formations est de 21 jours ouvrés ; la réalisation effective de la formation dépendra des disponibilités de vos équipes et des nôtres.

Public en situation de handicap

Nous avons entrepris des démarches afin de nous adapter et conscientiser nos équipes et partenaires autour d’une approche globale du handicap, Nous œuvrons pour plus d’inclusivité et pour garantir l’égalité des chances et d’accès à nos parcours de formation, quelle que soit la situation des apprenants.

N’hésitez pas à nous faire part de vos besoins spécifiques. Nous n’aurons peut-être pas la solution d’emblée, mais nous mettrons tout en œuvre pour fournir une réponse individualisée et vous accueillir dans les meilleures conditions.

Pour plus d’informations, vous pouvez contacter notre Référent Handicap en vous adressant à formation(at)ritme.com.

Analyse
Analyse des données épidémiologiques avec STATA
Analyse des données épidémiologiques avec STATA
  • Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population.
  • Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides
  • Décrire et résumer les données
  • Élaborer des hypothèses et analyser les données.
  • Interpréter et communiquer les résultats

 

STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins.

STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche.

Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats.

 

  1. Analyses bio-statistiques de base

Rappels sur le logiciel STATA et sur la manipulation des données

Analyses univariées

  • Analyse de données quantitatives : t-test, tests non paramétriques
  • Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar
  • Corrélation : Pearson, Spearman

Tables épidémiologiques

  • Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées
  • Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable
  • Chi-carré, tests de Fishers exacts et mantel-Haenszel

Exercices

  1. Détermination de la taille de l’échantillon

Calcul de la taille de l’échantillon,

Poids d’échantillonnage

Puissance statistique

Construire des groupes de comparaison valides

Exercices

  1. Introduction aux modèles statistiques de base utilisés en épidémiologie

ANOVA, ANCOVA

Régressions linéaires simples et multiples

Introductions aux notions de confusion, de modification et de médiation

Régression logistique

Exercices

  1. Analyse de survie

Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche)

Modèle de Kaplan-Meier et taux de hasard

Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres.

Prédire les rapports de risque

Exercices

Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Italien Anglais Français
Construire un projet de recherche qualitative avec NVivo
Construire un projet de recherche qualitative avec NVivo
  • Comprendre les enjeux méthodologiques liés à l’utilisation de NVivo
  • Connaitre et comprendre l’interface de NVivo
  • Être en mesure d’importer et d’organiser des données qualitatives dans NVivo
  • Être en mesure de coder des données
  • Connaitre les fonctionnalités avancées du logiciel (requêtes, double-codage, quantification de l’analyse qualitative)

Demi-journée 1

  1. Introduction au logiciel NVivo
  2. Présentation de l’interface à l’aide du projet exemple
  3. Création/Importation/Edition des documents
  4. Mémos, mémos liés, liens à, annotations

Demi-journée 2

  1. Les classifications de fichiers
  2. Les cas et les classifications de cas
  3. L’encodage avec les codes (encodage, désencodage, bandes d’encodage, codage in vivo, organisation hiérarchique des codes, agrégation d’en l’encodage, codebook)

Demi-journée 3

  1. L’encodage des relations
  2. L’encodage automatique des sentiments et des thèmes
  3. Travailler avec des données non-textuelles (pdf, vidéo/audio, images, enquêtes)
  4. NCapture (si les participants utilisent Google Chrome ou Internet Explorer)
  5. Les représentations visuelles (cartes, diagramme de comparaison, etc.)

Demi-journée 4

  1. La requête fréquence de mots
  2. La requête de recherche textuelle
  3. La requête d’encodage
  4. La requête matricielle
  5. La requête de tableau croisé
  6. La comparaison d’encodage et le double codage (sous réserve de temps disponible)
Analyse Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
  • Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations.

4 modules de 3,5 heures chacun

Stata Deb1 : A la rencontre du logiciel 

  • Présentation de l’environnement du logiciel
  • Comment paramétrer une session Stata pour être efficace
  • La syntaxe générale d’une commande de Stata
  • Savoir utiliser l’aide pour devenir autonome
  • Exemple commenté d’une session Stata pour en appréhender les possibilités
  • Importer des données, les décrire et les visualiser : une première approche
  • Un premier Exercice

Stata Deb2 : Travailler ses données 

  • Exploration d’un fichier de données : le conditionnel if, by et in
  • Manipuler des variables : création, recodage, labels et plein d’autres astuces
  • Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées
  • Un exercice pour se tester

Stata Deb3 : Statistiques Descriptives, Tables et Graphiques 

  • Statistiques descriptives
  • Tables statistiques synthétiques
  • Analyse univariée
  • Une introduction à l’analyse de la variance
  • Les graphiques avec Stata
  • Un exercice synthétique

Stata Deb4 : Une introduction à la régression

  • Régression linéaire : estimation, post-estimation, diagnostics et tests
  • Régression logistique : estimation, post-estimation, diagnostics et tests
  • Découverte de la programmation : les boucles
  • Exercice synthétique (suite)

 

Analyse Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Formation modulaire à NVivo - Approfondissement de NVivo
Formation modulaire à NVivo - Approfondissement de NVivo

Échanger avec les participants sur leurs pratiques de NVivo et approfondissement des connaissances et compétences suivantes :

  • Maitriser l’environnement NVivo.
  • Gestion des sources
  • Gestion des cas
  • Codage des sources
  • Requêtes et matrices
  • Documenter son analyse ; mémos, annotations et liens à.
  • Visualisation et exportation
  • L’importation et l’utilisation des données provenant des réseaux sociaux et du web
  • Le travail collaboratif et la comparaison d’encodeur.

 3 modules de 4h et 1 module de 3h

  • Retour sur les principes de bases l’analyse qualitative avec NVivo
    Échange avec les participants sur leurs pratiques
    Remise à niveau si nécessaire
  • La génération et utilisation des cas
  • Les requêtes : Approfondir la compréhension de son corpus et son codage
  • Les requêtes automatiques et le travail collaboratif
  • Documenter ses analyses, son travail et les visualisations
  • Le travail depuis les données du Web
  • La revue de littérature avec Nvivo et échange sur la publication avec Nvivo

 

Analyse Coaching Inter-entreprise Intra-entreprise Distanciel Présentiel Français Anglais
Formation modulaire à NVivo - Découvrir Nvivo
Formation modulaire à NVivo - Découvrir Nvivo
  • Comprendre le rôle de NVivo dans le processus de l’analyse qualitative.
  • Comprendre et maîtriser l’environnement NVivo.
    • Gestion des sources
    • Gestion des cas
    • Codage des sources
    • Les matrices de croisement
    • Documenter son analyse ; mémos, annotations et liens à.

 

  • 4 modules de 3h

Programme détaillé de la formation

 

  1. L’analyse qualitative avec NVivo et prise en main du logiciel

Rappel des principes de bases en analyse qualitative

La place des logiciels d’aide à l’analyse qualitative dans le processus de recherche

NVivo son interface et sa philosophie

  1. La préparation d’un projet

Préparation des sources, organisation du logiciel et importation de sources (données textuelles en word et pdf et images)

La carte mentale NVivo : le brainstorming comme point de départ du codage

Exercices pratiques

  1. Le codage déductif et inductif

Exercices pratiques sur base de données textuelles et image. Les différentes logiques de codage.

Les relations

 

Le cas particulier des données audio et vidéos et la transcription 

Les différents types de transcription.

Échange entre les participants sur leurs pratiques

Les outils pour réaliser une transcription efficacement

Démonstration de NVivo transcription I

Importation de transcription réalisée en dehors de Nvivo

 

Les requêtes automatiques 

Codage automatique des émotions et des thèmes

Codage automatique sur base de la structure des documents – travailler avec des entretiens semi-structurés et structurés

 

Travailler avec des enquêtes et des tableaux de données 

Importation des fichiers Excel

Le codage automatique des tableaux de données

 

Documenter ses analyses, son travail + Matrices de croisements 

Mémos et annotations

Liens à

Liaisons internes

Les matrices de croisement pour explorer les liens entre les idées

 

Analyse Intra-entreprise Coaching Inter-entreprise Distanciel Présentiel Français Anglais
Formation modulaire à NVivo - Devenir Expert NVivo
Formation modulaire à NVivo - Devenir Expert NVivo
  • Comprendre le rôle de NVivo dans le processus de l’analyse qualitative.
  • Comprendre et maîtriser l’environnement NVivo :
    • Gestion des sources
    • Gestion des cas
    • Codage des sources
    • Requêtes et matrices
    • Documenter son analyse ; mémos, annotations et liens à.
    • Visualisation et exportation
    • L’importation et l’utilisation des données provenant des réseaux sociaux et du web
    • Le travail collaboratif et la comparaison d’encodeur.

1 demi-journée de 4h et 9 modules variant entre 1 et 3h

Première 1/2 journée 

  1. L’analyse qualitative avec NVivo (1h)
  2. La préparation d’un projet (1h)
  3. Le codage déductif et inductif (2h)

Modules

  1. Le cas particulier des données audio et vidéos et la transcription (2h)
  2. Les cas dans NVivo (2h)
  3. Les requêtes : Approfondir la compréhension de son corpus et son codage (3h)
  4. Les requêtes automatiques (2h)
  5. Travailler avec des enquêtes et des tableaux de données (2h)
  6. Documenter ses analyses, son travail et les visualisations (2h)
  7. Le travail depuis les données du Web (2h)
  8. Le travail collaboratif (2h)
  9. La revue de littérature avec NVivo (1h)

 

Analyse Intra-entreprise Coaching Présentiel Distanciel Anglais Français
Graphiques scientifiques avec PRISM
Graphiques scientifiques avec PRISM
  • Découvrir l’ensemble des possibilités offertes par PRISM pour obtenir le graphique que l’on souhaite, tracé automatique des courbes d’ajustement compris.
  1. Notions de base.
      • Présentation des possibilités de PRISM au travers d’exemples permettant aux participants de pointer au formateur les représentations qui les intéressent le plus.
      • Créer un premier graphique pour mieux comprendre les impératifs relatifs aux feuilles de données.
      • La notion de projet (structure d’un fichier PRISM, sections, liens automatiques, les boutons « magiques », etc.).
      • La navigation et la gestion d’un projet PRISM (trouver la bonne feuille de données, renommer les feuilles, geler les feuilles, réordonner les feuilles, fusionner et fractionner des projets).
      • Les feuilles d’information.
  2. Les feuilles de données : Concepts essentiels.
      • Présentation des huit types de feuilles de données.
      • Column : Test pour les échantillons appariés et non appariés. Identifier les valeurs aberrantes.
      • XY : analyse de corrélation.
      • Grouped : ANOVA bidirectionnelle.
      • Contingency : Chi-carré.
      • Survival : Kaplan-Meier et test du log-rank.
      • Parts of whole : diagramme circulaire.
      • Nested : Nested t-test.
      • Multiple variables : analyse de plusieurs variables simultanément.
  3. Graphiques avec PRISM.
      • Création et modification des graphiques (graphiques multiples à partir de la même table, modification des propriétés, etc.).
      • Modification des barres et symboles (formats et couleurs des lignes et symboles, changement de l’aspect d’une donnée).
      • Les axes (échelles, limites, ruptures, numérotation, titres, montrer et cacher les graduations). Les axes logarithmiques.
      • La maîtrise des couleurs.
      • Tables encapsulées dans les graphiques.
      • Les légendes.
      • Dispositions sur la page (layouts).
  4. Importation et exportation de données.
      • Méthodes rapides d’importation de données comme alternative au copier-coller.
      • Exportations aux formats exigés.
  5. Analyses et graphiques répétitifs (templates) et remarques finales.
Analyse Chimie / Bio Intra-entreprise Présentiel Distanciel Français Anglais
Initiation au langage R
Initiation au langage R
  • Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage

 

R1 : Premiers pas dans R 

  • Introduction
  • Saisir une commande dans la console
  • Ecrire un script propre, structuré et commenté
  • Créer, modifier, visualiser et effacer un objet
  • Manipuler les différents types de données et structures des données
  • Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions

R2 : Importer, contrôler et exporter des tableaux de données

  • Afficher et modifier le répertoire de travail
  • Importer des données contenues dans un fichier .csv
  • Contrôler les types de ses variables et les modifier si besoin
  • Les variables qualitatives : les facteurs
  • Contrôler les données manquantes
  • Exporter un tableau de données dans un fichier .csv

R3 : Valorisation numérique des données

  • Manipuler son jeu de données (sélection de variables, de lignes …)
  • Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information
  • Statistiques descriptives, comptages, tableau croisé
  • Agrégation de données (statistiques par groupe d’observations)

R4 : Valorisation graphique des données

  • Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire
  • Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …)
  • Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …)
  • Enregistrer un graphique

 

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Les bases du Machine Learning
Les bases du Machine Learning
  • Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining.
  • À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs.

 JOUR 1

  • Introduction aux méthodes non supervisées :
    • L’analyse en composantes principales (PCA)
    • La classification automatique (k-means),
    • Les règles d’association (apriori, eclat)
  • Introduction aux méthodes supervisées :
    • Les modèles de régression linéaire et logistique avec régularisation (ridge régression),
    • Les arbres de décision (régression et classification)

JOUR 2

  • Les méthodes standards pour mettre en œuvre des modèles prédictifs :
    • Feature engineering : apprendre à réduire la complexité d’un problème,
    • Sélection de variables,
    • Validation croisée,
    • Calibration d’un modèle prédictif
    • Text Mining et web scraping

Prérequis

  • Aucun

Moyens pédagogiques et d’encadrement

  • Séances de formation en salle,
  • Support pédagogiques format numérique,
  • Etudes de cas concrets,
  • Exposés théoriques,
  • Utilisation des données fournies par les participants,
  • Travail approfondi sur les données,
  • Paper-board, vidéoprojecteur, connexion internet

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Machine Learning Avancé
Machine Learning Avancé
  • Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif.
  • À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée.

JOUR 1

  • L’exploration avancées des données :
    • DBSCAN, algorithme de clustering de données non supervisées
    • Manifold Learning

JOUR 2

  • Gaussian Mixture Modelling (GMM)
  • Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS)
  • Support Vector Machine (SVM)

JOUR 3

  • Random Forest et Gradient Boosting Machines
  • L’estimation et la validation croisée par Bootstraping
  • Le filtrage collaboratif et le système de recommandation

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français
Origin : Analyse de pics
Origin : Analyse de pics
  • Détection et suppression de ligne de base
  • Détection de pics
  • Déconvolution de pics
  • Déconvolution en masse à l’aide de thèmes de calculs

1. Présentation des différents outils relatifs à l’analyse de pic

2. Traitement de la ligne de base

3. Détection de pics

4. Intégration de pics

5. Déconvolution de pics

6. Déconvolution en masse à l’aide de thèmes de calculs

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Batch processing
Origin : Batch processing
  • Réaliser des filtres d’import
  • Automatiser le traitement des données
  • Réaliser des rapports personnalisés et des modèles d’analyse
  • Générer des tables de synthèse d’analyse

1. Filtres d’import

2. Enchainement d’opérations et recalcul automatique

3. Rapports personnalisés

4. Traitement ne masse par drag and drop

5. Traitement en masse avec l’outil Batch Processing

6. Optimisation des calculs avec l’App Distributed Batch Processing

7. Tables de synthèse

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Fonctions de base
Origin : Fonctions de base
  • Importer des données de formats variés
  • Réaliser des graphiques et les personnaliser (styles, templates, thèmes)
  • Traiter les données et automatiser les calculs
  • Réaliser des ajustements de données, créer ses propres fonctions d’ajustement
  • Détecter et déconvoluer des pics

1. Graphiques

  • Graphiques de base
  • Tracés en groupe
  • Personnalisation des courbes et des axes
  • Graphiques statistiques
  • Axes spéciaux (radar, coordonnées polaires)
  • Graphiques de surface et 3D
  • Batch plotting

2. Importation de données

  • Importation de fichiers ASCII, CSV, Excel
  • Personnalisation, import en masse

3. Calculs et manipulation de données

  • Calculs entre colonnes
  • Extraction et réorganisation de données
  • Masquage et filtrage de données
  • Statistiques descriptives
  • Intégration, dérivation, inter/extrapolation
  • Traitement du signal
  • Sauvegarde et réutilisation de thèmes de calculs

4. Ajustement

  • Ajustement linéaire, polynomial et non linéaire
  • Création et édition de fonctions d’ajustement
  • Ranking de fonctions d’ajustement

5. Analyse de pics

  • Détection et intégration de pics
  • Déconvolution de pics

6. Traitement en masse

  • Modèles d’analyse, rapports personnalisés
  • Import et traitement en masse

7. Ajout de fonctionnalités avec les Apps

8. Reconstruction de données à partir de fichiers image

Analyse Ingénierie et développement Intra-entreprise Inter-entreprise Présentiel Français Anglais
Origin : Graphiques avancés
Origin : Graphiques avancés
  • Maitrise des possibilités de personnalisation des graphiques
  • Batch Plotting avancé
  • Stratégies de réalisation de graphiques complexes

1. Utilisation des templates et des clones

2. Personnalisation des thèmes et des listes incrémentales

3. Batch plotting

4. Stratégies de réalisation de graphiques complexes

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Programmation
Origin : Programmation
  • Maîtriser des fonctions de base de la programmation: accès aux différents objets d’Origin, variables, fonctions, boites de dialogue.

1. Environnement

  • Script Window, Command Window et Code Builder
  • Déclenchement de scripts à partir de boutons de raccourci
  • Déclenchement de scripts par des événements

2. Types de variables

3. Accès aux objets Origin

  • Accès aux données issues de workseet
  • Graphiques et personnalisation
  • Objets graphique

4. Opérateurs et calculs

5. Structures des scripts

6. Fonctions

7. Boites de dialogues

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Outils avancés - Python
Outils avancés - Python
  • Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly..
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.

JOUR 1 

  • Les traitements avancés des données :
    • La librairie numpy :
      • les fonctions avancées (views, slices)
      • l’interface avec scipy
    • La librairie pandas :
      • L’importation de sources de données externes,
      • L’agrégation de données,
      • Le reshaping,
      • L’indexation,
      • La fusion de sources de données
    • La librairie statmodels :
      • La régression simple et multiple,
      • Les tests des coefficients de régression,
      • Le diagnostic du modèle,
      • La prédiction ponctuelle et par intervalle
    • Le traitement des chaînes de caractères, regex
    • Le traitement des dates et gestion des séries chronologiques

JOUR 2

  • Les générateurs, itertools, lazy evaluation
  • L’interface base de données (SQL, NoSQL)
  • Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap)
  • Les graphiques interactifs avec le package Bokeh et Plotly

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français
Outils avancés - R
Outils avancés - R
  • Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly.
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a

JOUR 1

  • L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven}
  • Les outils pour optimiser les traitements de données, {data.table} et {dplyr} :
    • La manipulation avancée des data frames,
    • L’aggrégation de données,
    • Le reshaping,
    • L’indexation,
    • La fusion de sources de données
  • La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} :
    • La régression simple et multiple,
    • Les tests des coefficients de régression,
    • Le diagnostic du modèle,
    • La prédiction ponctuelle et par intervalle

JOUR 2

  • Le traitement des chaînes de caractères, regex
  • Le traitement des dates et gestion des séries chronologiques
  • L’approche fonctionnelle et lazy evaluation
  •  L’interface base de données (SQL, NoSQL)
  • Les fonctionnalités graphiques avancées avec le package {ggplot2} :
    • Les graphiques en trellis,
    • Les distributions statistiques,
    • Représentation de données avec le heatmap
  • Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly}
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Anglais Français
Outils de base - Python
Outils de base - Python
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en oeuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail : Python 2 et 3.x,
  • La présentation des différentes consoles et le débogage en Python :
    • Anaconda,
    • Jupyter,
    • Spyder
  • Les types de données : listes, dictionnaires
  • Les structures de contrôle
  • Les fonctions, méthodes et packages

JOUR 2

  • La préparation et le nettoyage des données :
    • numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire)
    • scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base)
    • Les distributions de probabilité et statistiques univariées
      • matplotlib : fonctionnalités de base : scatterplot, box plot, histogram
    • L’écriture de scripts simples

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - R
Outils de base - R
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail :
    • Présentation de R 3.x
    • Présentation de RStudio
  • Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples
  • Les structures de contrôle de base de R
  • Les fonctions et les packages importants pour la manipulation de données

JOUR 2

  • Les fonctionnalités de base :
    • Les fonctions numériques simples,
    • Les générateurs de nombre aléatoire
  • Les distributions de probabilité et statistiques univariées
  • Les fonctions scientifiques {stats} et les tests statistiques de base
    • La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram)
  • L’écriture de scripts simples de programmation avec R

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2 :

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3 :

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Conseil Coaching Intra-entreprise Distanciel Présentiel Français
Séries temporelles avec R
Séries temporelles avec R
  • Savoir traiter les séries temporelles avec R

Introduction

  • Tendances et composantes saisonnières
  • Indices descriptifs d’une série temporelle

Lissages exponentiels

  • Lissage simple
  • Lissage double

Estimation et élimination de la tendance et de la saisonnalité

  • Bruit blanc
  • Processus stationnaire
  • Estimation paramétrique de la tendance
  • Estimation non paramétrique
  • Elimination de la tendance et de la saisonnalité

Modélisation des séries stationnaires

  • Auto-corrélation partielle
  • Les processus auto-régressifs
  • Les processus en moyenne mobile
  • Les processus mixtes ARMA
  • Tableau des propriétés
  • Estimation et choix de modèle
  • Processus ARIMA et SARIMA
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Blended Distanciel Présentiel Anglais Français
Stata ERM : Les modèles de régression étendus
Stata ERM : Les modèles de régression étendus
  • Apprendre à prendre en compte les différentes sources d’endogénéité dans un modèle de régression

1 modules de 3,5 heures

  • Les différentes sources d’endogénéité et les conséquences sur les propriétés des estimateurs
  • Les méthodes d’estimation pour en tenir compte
  • Une commande synthétique qui permet de considérer ces différentes sources dans un seul modèle
  • Un exercice pratique

 

Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais
Stata Lasso
Stata Lasso
  • Maîtriser les méthodes Lasso (least absolute shrinkage and selection operator) avec Stata pour la prédiction et l’/ou l’inférence sur les paramètres causaux. Cette méthode de régression (généralement utilisée dans les problèmes en grande dimension) consiste à pénaliser la taille absolue des coefficients de régression.
  • Comment sélectionner des variables dans un très grand ensemble de variables potentielles ?
  • Objectif sélection ou prédiction ?
  • Variables quantitatives ou qualitatives
  • La validation croisée
  • La représentation des résultats
  • Quelques prolongements
Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais
Stata Perfectionnement : Stata Av1 – Stata Av4
Stata Perfectionnement : Stata Av1 – Stata Av4
  • Améliorer la maîtrise du logiciel et découvrir des fonctions avancées de Stata
    • Déclarer les données dans différents formats
    • Estimation avancées
    • Programmation.

4 modules de 3,5 heures chacun

Stata Av1 : Gestion avancée des données

  • Traitement des variables alphanumériques
  • Fusion et agrégation de données
  • Traitement des variables de date et opérateurs de séries temporelles
  • Gestion avancée des graphiques

Stata Av2 : Programmation avec Stata

  • Les macros locales et globales
  • Les boucles, les sommes et les compteurs, les variables temporaires
  • Programmer pour reproduire
  • Exemples d’application

Stata Av3 : Méthodes d’estimations, tests et prédictions

  • La régression linéaire avec variables qualitatives et interactions
  • Présenter les résultats dans un tableau synthétique et les exporter
  • Tests de spécification et diagnostics
  • Extension à d’autres méthodes d’estimation

Stata Av4 : Introduction à l’estimation sur données de panel

  • Structurer et visualiser les données
  • Modèle à effets fixes
  • Modèles à effets aléatoires
  • Quelques extensions
Analyse Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
  • Traiter et Analyser des séries temporelles avec Stata.

2 modules de 3,5 heures chacun

Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles

  • Traitement des variables de date et opérateurs de séries temporelles
  • Les graphiques spécifiques pour les séries temporelles
  • Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire
  • Un exercice pratique

Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques

  • La régression linéaire à partir de séries temporelles
  • La modélisation ARIMA
  • La prévision
  • Exercice synthétique
Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais
Working with NVivo - An online course in four sessions (English only)
Working with NVivo - An online course in four sessions (English only)

Course objectives:

  • Understanding the methodological implications of using NVivo in a qualitative research project.
  • Understanding the application’s interface and how it is meant to be used.
  • Being able to import and organize qualitative data in NVivo.
  • Being able to code data.
  • Using the advanced features of the software (queries, autocoding, visualizations, quantification of qualitative analysis).

Module #1:

  1. Qualitative analysis with NVivo and software interface presentation.
  • Basic principles of qualitative analysis.
  • How NVivo can help analyzing qualitative data.
  • Tour of the interface: understanding the four-step process.
  1. Starting a project.
  • Workspace organization and files import (Word documents, PDFs, images, audio/video files).
  • The NVivo mind map: brainstorming as a starting point for coding.
  1. Importing source files.
  • Importing documents, emails, references, image and video files.
  • Importing surveys and datasets.
  • Using memos, links, “see-also” links, and annotations

 

Module #2:

  1. File classifications
  • What are file classifications and how to use them.
  • Reference files, a special case of file classification.
  • Folders, static sets and dynamic sets.
  1. Cases and case classifications.
  • What are “Cases” in NVivo and how to use them to quantify qualitative data.
  • Case classifications, case attributes and values.

 

  1. Coding
  • Coding, Uncoding, Code in vivo, Autocode.
  • Autocoding themes and sentiments.
  • Coding relationships.
  • Exporting codes (creating a codebook).

 

Module #3:

  1. Working with data.
  • Working with PDFs, Audio/video files, and images.
  • Analyzing surveys.
  • Creating audio and video transcripts.
  • Using NCapture to import and code Internet sources.
  1. Working with references.
    • Importing and coding references to do a literature review.

 

Module #4:

  1. Queries
  • The query wizard.
  • Text search, Word frequency, Matrix coding queries.
  • Crosstab, Coding comparison query.
  • Compound query, Group query.

 

  1. Visualizations
  • Charts, Hierarchy charts.
  • Cluster analysis.
  • Explore diagram.
  • Project map, concept map.
  • Social network analysis (upon request).
Analyse Inter-entreprise Distanciel Anglais
Chimie / Bio
Bioélectrochimie - Concepts et applications
Bioélectrochimie - Concepts et applications
  • Acquérir les bases en bioélectrochimie.
  • Connaître les outils utilisés en bioélectrochimie.
  • Connaître les applications concrètes des systèmes bioélectrochimiques.
  • Pouvoir collaborer avec des chimistes/biologistes dans le cadre de projets incluant un système bio-électrochimique.

Initiation aux systèmes bioélectrochimiques

  • Qu’est-ce qu’un système bioélectrochimique ?
  • Les biofilms électroactifs.
  • Les microorganismes électroactifs modèles.
  • De la sélection anodique aux interactions microbiennes.
  • Les réacteurs : design et matériaux.

Les applications réelles

  • Traitement des eaux usées.
  • Traitement d’effluents industriels.
  • Production de molécules d’intérêt.
  • Autres applications.
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Présentiel Distanciel Anglais Français
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Italien Anglais Français
Graphiques scientifiques avec PRISM
Graphiques scientifiques avec PRISM
  • Découvrir l’ensemble des possibilités offertes par PRISM pour obtenir le graphique que l’on souhaite, tracé automatique des courbes d’ajustement compris.
  1. Notions de base.
      • Présentation des possibilités de PRISM au travers d’exemples permettant aux participants de pointer au formateur les représentations qui les intéressent le plus.
      • Créer un premier graphique pour mieux comprendre les impératifs relatifs aux feuilles de données.
      • La notion de projet (structure d’un fichier PRISM, sections, liens automatiques, les boutons « magiques », etc.).
      • La navigation et la gestion d’un projet PRISM (trouver la bonne feuille de données, renommer les feuilles, geler les feuilles, réordonner les feuilles, fusionner et fractionner des projets).
      • Les feuilles d’information.
  2. Les feuilles de données : Concepts essentiels.
      • Présentation des huit types de feuilles de données.
      • Column : Test pour les échantillons appariés et non appariés. Identifier les valeurs aberrantes.
      • XY : analyse de corrélation.
      • Grouped : ANOVA bidirectionnelle.
      • Contingency : Chi-carré.
      • Survival : Kaplan-Meier et test du log-rank.
      • Parts of whole : diagramme circulaire.
      • Nested : Nested t-test.
      • Multiple variables : analyse de plusieurs variables simultanément.
  3. Graphiques avec PRISM.
      • Création et modification des graphiques (graphiques multiples à partir de la même table, modification des propriétés, etc.).
      • Modification des barres et symboles (formats et couleurs des lignes et symboles, changement de l’aspect d’une donnée).
      • Les axes (échelles, limites, ruptures, numérotation, titres, montrer et cacher les graduations). Les axes logarithmiques.
      • La maîtrise des couleurs.
      • Tables encapsulées dans les graphiques.
      • Les légendes.
      • Dispositions sur la page (layouts).
  4. Importation et exportation de données.
      • Méthodes rapides d’importation de données comme alternative au copier-coller.
      • Exportations aux formats exigés.
  5. Analyses et graphiques répétitifs (templates) et remarques finales.
Analyse Chimie / Bio Intra-entreprise Présentiel Distanciel Français Anglais
Jump Start Signals Notebook
Jump Start Signals Notebook

Module 1: Administrator training (4h, 5 personnes max):

  • Acquérir les compétences afin de pouvoir intégrer, soutenir et faire évoluer la plateforme Signals Notebook aux besoins de votre organisation
  • Apprendre comment votre pratique professionnelle est mise en oeuvre
  • Ajuster les attributs, créer et distribuer des modèles de système, gérer les utilisateurs, les groupes et les associations de groupes, examiner les résultats de l’analyse des données
  • Examiner les options de verrouillage ou de fermeture des travaux
  • Définir les autorisations via la politique de sécurité

Module 2: Introductory, First Time User training for Signals Notebook (2 sessions de 4h, 15 personnes max par session ):

  • Assurer l’adoption rapide de Signals Notebook grâce à la formation des utilisateurs finaux – conçue pour les nouveaux utilisateurs ayant des antécédents scientifiques variés et provenant de diverses disciplines.
  • Apprendre les compétences clés, encourager les meilleures pratiques
  • Apprendre à partager des conseils et des astuces
  • Apprendre à répondre aux questions et se familiariser avec les ressources en libre-service

 

Voir programme détaillé ci-joint.

Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais
Séquençage haut débit et écologie microbienne
Séquençage haut débit et écologie microbienne
  • Comprendre le séquençage génomique à haut débit.
  • Être capable de choisir la technologie adaptée à son projet.
  • Connaître les outils bio-informatiques utilisés.
  • Connaître les analyses statistiques possibles.
  1. Méthodes moléculaires
    • Séquençage HTS.
    • Métagénomique ciblée.
    • Métagénomique globale.
    • Analyses RNA-seq.
    • CRISPR/Cas9.
  2. Applications en écologie microbienne
    • Extraction d’ADN microbien.
    • Analyse bioinformatique des séquences.
    • L’analyse de données :
      • Diversité, cluster, réseau, core-microbiome
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Présentiel Distanciel Français
Communication et rédaction scientifique
Communicating science to a wider audience
Communicating science to a wider audience

Ce stage pour des chercheurs scientifiques et toute personne travaillant dans la communication scientifique de fournir aux stagiaires les moyens et techniques journalistiques, écrits et oraux, pour simplifier leurs messages complexes, en utilisant des métaphores plus faciles à comprendre et en évitant le langage aride des experts.

En résumé, comment formuler les « headlines » dynamiques, comment synthétiser et simplifier ces messages, et vulgariser afin qu’ils puissent être compris par le plus grand nombre.

Journée 1

  1. Définition du concept de « populaire ». La notion du populaire aujourd’hui n’est pas le même que celle d’hier car les médias ont énormément évoluées. Diapos.
  2. Les médias comme vecteur de savoir. Les meilleurs films de science-fiction, livres, etc.
  3. Pourquoi ces films, livres, etc. en particulier ?
  4. Discussion sur ce que les gens trouvent attirant dans les présentations – pourquoi veulent -ils toucher un public plus grand ?
  5. Pourquoi votre travail est-il important ? Qu’est-ce qu’il va changer ? Le cible ? Pourquoi le public pourrait être intéressé ? « Storytelling » – comment construire un narrative – début – milieu – fin. L’importance des « chutes ».
  6. « Highlights » – Quels sont les « highlights » de votre travail. Création de 4/5 phrases dynamiques.
  7. Liste de métaphores – inventer des métaphores.
  8.  Lecture de textes de « Nature » et l’extraction de mots clés ayant de l’impact. Leur sens ? Pouvez-vous les utiliser ?
  9. Les titres – la création de titres qui retient l’attention – règles – mots clés – verbes clés – pensez en termes des mots clés et les verbes clés de votre travail – les verbes créent le dynamisme.
  10. Une analyse des « news highlights » de Nature.
  11. Interviewez vos collègues de stage et rédigez des courts rapports sur leur travail. Inventez des titres courts pour les « highlight reports ».
  12. Les structures des paragraphes.
  13. Choix d’une structure ou une combination des structures pour la rédaction d’un blog à mettre en ligne sur Facebook, par exemple. Exemples de Nature et New Scientist.
  14. Combinez les 6 questions – qui – quoi – quand – comment – où – pourquoi et l’utilisez dans l’article du blog. Trouvez une image.
  15. L’importance des images.
  16. Rédaction d’un texte d’environ 500/600 mots sur votre propre travail. Segmentez-le en paragraphes.
  17. Ecrire la légende de l’image.
  18. Montrez-la à 4 autres stagiaires pour obtenir leurs opinions afin d’améliorer le blog.

Journée 2

  1. La passion dans l’expression orale.
  2. L’idée de base d’une présentation orale en 180 secondes (3MT).
  3. Prononciation – intonation.
  4. Présentation sur comment donner une présentation.
  5. Langage corporel.
  6. La projection de soi – contrôler le trac.
  7. Feuille de minutage – les mots qu’il faut et quand.
  8. Comment condenser une thèse de 180 pages en seulement 2 pages?
  9. Combien de informations pouvez-vous communiquer en 180 secondes – 133 à 180 mots/minute donc ~400 à 540 mots en 3 minutes.
  10. Travail en groupes afin de structurer les présentations. Choix des métaphores – analogies.
  11. Créer 1 diapo PowerPoint pour toute la présentation.
  12. Discussion en groupes sur votre message. Point clés et comment les mettre en avant.Chronométrage et synchronisation.
  13.  Présentation de présentations ayant gagnés des prix.
  14. Chaque stagiaire donne sa présentation au moins deux fois.
Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Anglais
Communication orale en anglais pour conférences scientifiques
Communication orale en anglais pour conférences scientifiques
  • Être capable de parler en anglais avec confiance en soi devant un public scientifique
  • Savoir utiliser son corps (respiration, position, posture, gestes) pour rythmer son discours
  • Savoir se projeter dans l’espace et attirer l’attention des spectateurs en donnant de l’autorité à son discours
    Identifier ses points faibles et forts avec l’aide des autres participants
  • Savoir synthétiser de l’information pour la rendre plus dynamique
  • Savoir utiliser sa présentation comme tremplin pour s’exprimer et non pas comme une béquille
  • Préparer une argumentation pour étayer son discours et répondre aux questions rapidement
  • Être plus spontané en anglais et gérer les questions.

Journée 1

  • Introduction et objectifs du stage
  • Parler d’un sujet avec conviction – communiquer l’intérêt
  • Exercices de prononciation – intonation
  • Présentation des qualités requises pour une bonne communication orale par l’animateur
  • Pourquoi ce vous voulez dire est important – pour qui ?
  • Exprimer cette importance Le fond du problème – décrire le contexte de votre recherche – 3/4 diapositifs
  • PowerPoint Identification des faiblesses : clarté, cadence du discours trop lente/rapide, …
  • L’utilisation du corps (langage corporel) pour aider le discours Séance de débat sur des sujets controversés – réagir aux propos de l’autre – mettre en avant ses propres idées
  • Expliquer sa méthode sur le tableau – mettre en phase ce qu’on dit avec ce qu’on fait avec son corps (dessiner – écrire – regarder)
  • Répondre aux questions

Journée 2

  • Exercices de prononciation – intonation
  • Présentation par l’animateur
  • L’importance de l’autorité dans la prise de parole en public
  • Comment synthétiser son discours
  • Présenter ses résultats – comparaisons – contrastes – causes et effets
  • Utilisation de courbes, histogrammes, … mise en exergue des points importants
  • Identification des difficultés de communication non résolus – comment les contourner
  • Les perspectives de sa recherche – spéculer sur les suites
  • Nouvelle présentation par l’animateur
  • Communication finale – chaque stagiaire dois parler pour au moins 15 minutes sans arrêter sur leur travail avec un support PowerPoint, puis répondre aux questions des autres participants et le formateur.

Le temps prévu pour chaque activité dépend de l’avancement de chaque participant.

 

Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Anglais
Mettre en place sa veille scientifique et technologique dans un projet innovant
Mettre en place sa veille scientifique et technologique dans un projet innovant
  • Réussir la mise en œuvre de la veille scientifique, technique et technologique d’un projet.
  • Connaître le cycle de veille et organiser son plan de veille.
  • Organiser les différentes étapes de la veille concrètement.
  1. Se familiariser avec les bases du cycle global de la veille scientifique, présentation théorique et présentation des projets individuels (30 min)
  2. Identifier les étapes clés du processus de veille scientifique, présentation et exercice pratique (30 min)
  3. Méthodologie de recherche d’informations scientifiques, techniques et technologiques : exposé théorique et exercice de mise en pratique (30 min)
  4. Bien définir ses besoins, son périmètre et ses axes de recherche exercice pratique : exercice de mise en pratique  (1h30)
  5. Organiser une veille ciblée cas concret (30 min)
  6. Bien choisir ses sources : les différents moteurs de recherche scientifiques, les bases de données et la littérature grise exercice , fiche technique, fiches conseil(1h30)
  7. Choisir et analyser les informations importantes au projet présentation théorique (30 min)
  8. Evaluer et gérer les informations (15 min)
  9. Diffuser sa veille : présentation (30 min)
  10. Point sur les outils de veille : présentation (15 min)
  11. Ajuster et mener des actions correctives sur le projet : théorie (30 min)

 

Communication et rédaction scientifique Publication Intra-entreprise Inter-entreprise Présentiel Distanciel Français
Rédaction d’articles scientifiques en anglais
Rédaction d’articles scientifiques en anglais
  • Comprendre et savoir utiliser l’approche anglo-saxonne dans la rédaction d’articles scientifiques
  • Mettre en pratique les enseignements sur le champ sur son propre travail
  • Comprendre l’importance du lecteur et donc de la clarté et précision de son message
  • Comprendre qu’il faut penser dans la langue dans lequel on écrit pour le rendre plus compréhensible
  • Savoir mieux utiliser la grammaire et la syntaxe dans ses écrits pour les rendre plus clairs
  • Maîtriser la structure de l’article et donc mieux structurer son discours
  • Avoir une trame et une boite à outils réutilisable pour d’autres articles

Jour 1

  • Présentation du stage et définition des objectifs de chaque stagiaire
  • L’utilisation du résumé pour décrire la méthode suivie pour le stage
  • Comment penser en anglais pour écrire directement sans passer par le français
    Chaque phrase doit remplir une fonction précise
  • La logique de l’enchainement des pensées
  • Exercices d’analyse et simplification de textes complexes en anglais
  • Exercices sur les prépositions et « phrasal verbes »
  • Exercice avec un « abstract » réel de la revue « Nature »
  • Les stagiaires rédigent leurs propres abstracts
  • Aide et correction par le formateur
  • L’introduction, ses composants, ses objectifs et sa structure : contexte de la recherche, références, méthode utilisée, …
  • Les conjugaisons nécessaires – exercices. L’importance de la chronologie pour les références
    La mise en avant de l’objectif de l’article dans l’introduction : l’importance de l’étude
  • Les stagiaires choisissent et rédigent au choix une des quatre parties de l’introduction
  • Aide et correction par le formateur

Jour 2

  • Identification des erreurs typiques d’anglais faites par des chercheurs dans des textes scientifiques
  • La syntaxe anglaise, les différences entre la syntaxe anglaise et française
  • Différences de conception culturelle
  • Analyse et repérage des erreurs dans des textes écrits par d’autres chercheurs
  • Exercices
  • La méthode : l’importance des conjugaisons et le passif
  • Exemples des méthodes déjà publiées
  • Chaque stagiaire rédige sa méthode
  • Les stagiaires lisent les méthodes de leurs collègues en essayant d’identifier leurs erreurs éventuelles, syntaxe difficile à comprendre, …

Les résultats

  • L’importance des comparaisons, oppositions et causes et effets et le langage utilisé
  • Exemples des résultats dans des publications
  • Grammaire et exercices
  • Vocabulaire pour décrire l’évolution des phénomènes observés
  • Le langage des figures, illustrations, graphiques, … comment les présenter et les décrire
  • Choix des figures par les stagiaires
  • Rédaction des descriptionsJour 3

Reprise des résultats. Aide et correction par le formateur.

La discussion

  • L’utilisation de l’introduction comme gabarit pour la discussion pour faciliter sa rédaction
  • Les réponses attendues dans la discussion par rapport aux questions posées dans l’introduction
  • Les adverbes d’opposition, de débat, de prise en compte
  • L’ajout des informations supplémentaires
  • Discussion entre les stagiaires afin qu’ils puissent mieux identifier les points difficiles dans leurs propres discussions et clarifier leurs idées
  • Rédaction d’une partie de la discussion au choix
  • Aide et correction par le formateur

La conclusion et perspectives

  • La spéculation, verbes modaux, structure, synthèse
  • Rédaction de la conclusion
  • Lettres à l’éditeur et aux « reviewers
  • Exercice – test ludique
Communication et rédaction scientifique Intra-entreprise Inter-entreprise Distanciel Présentiel Anglais
Data Science
Environnement de développement en Data Science
Environnement de développement en Data Science

Comprendre l’écosystème de la data science et connaître les outils afférents à la réalisation d’un projet en data science.

 

Prérequis

Aisance avec les outils informatiques, disposer d’une connexion Internet

Programme détaillé de la formation

JOUR 1

  • L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL
  • Le contrôle de révision et travail collaboratif avec Git
  • La méthodologie de gestion d’un projet en data science
  • Les principes de base du génie logiciel et bonnes pratiques

JOUR 2

  • Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data)
  • L’architecture distribuées et base de données, map-reduce, big data, Apache Spark

 

Moyens pédagogiques et d’encadrement :

  • Plateforme digitale de formation dédiée (LMS).
  • Séances avec le formateur, Support pédagogiques format numérique, alternance entre théorique et pratique.

Dispositif de suivi et d’évaluation des acquis:

Mise en pratique et exercices, Appréciation de la formation à chaud.

Résultats & compétences attendus à l’issue de la formation :

À l’issue de cette formation, le participant aura une idée précise de ce que représente la data science, les outils disponibles pour mettre en oeuvre des projets de data science, quel langage de programmation choisir et comment organiser son travail.

Mis à jour le : 13/04/2021

Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Initiation au langage R
Initiation au langage R
  • Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage

 

R1 : Premiers pas dans R 

  • Introduction
  • Saisir une commande dans la console
  • Ecrire un script propre, structuré et commenté
  • Créer, modifier, visualiser et effacer un objet
  • Manipuler les différents types de données et structures des données
  • Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions

R2 : Importer, contrôler et exporter des tableaux de données

  • Afficher et modifier le répertoire de travail
  • Importer des données contenues dans un fichier .csv
  • Contrôler les types de ses variables et les modifier si besoin
  • Les variables qualitatives : les facteurs
  • Contrôler les données manquantes
  • Exporter un tableau de données dans un fichier .csv

R3 : Valorisation numérique des données

  • Manipuler son jeu de données (sélection de variables, de lignes …)
  • Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information
  • Statistiques descriptives, comptages, tableau croisé
  • Agrégation de données (statistiques par groupe d’observations)

R4 : Valorisation graphique des données

  • Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire
  • Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …)
  • Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …)
  • Enregistrer un graphique

 

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
L'Analyse de données avec R
L'Analyse de données avec R

Savoir manipuler les données et en tirer de l’information avec R.

Statistiques introductives

  • Statistique univariée
  • Statistique bivariée
  • Introduction à ggplot2, la grammaire des graphiques
  • Graphiques univariés et bivariés avec ggplot2
  • Données pondérées

Statistiques intermédiaires

  • Intervalles de confiance
  • Comparaisons
  • Définir un plan d’échantillonnage complexe
  • Régression linéaire
  • Régression logistiques binaire, multinomiale et ordinale
  • Analyse en correspondances multiples
  • Classification ascendante hiérarchique

Statistiques avancées

  • Effets d’interaction dans un modèle
  • Multi-colinéarité dans la régression
  • Analyse de survie
  • Analyse de séquences
  • Analyse de réseaux
  • Analyse spatiale
Data Science Open Source Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Blended Distanciel Présentiel Anglais Français
Les bases du Machine Learning
Les bases du Machine Learning
  • Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining.
  • À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs.

 JOUR 1

  • Introduction aux méthodes non supervisées :
    • L’analyse en composantes principales (PCA)
    • La classification automatique (k-means),
    • Les règles d’association (apriori, eclat)
  • Introduction aux méthodes supervisées :
    • Les modèles de régression linéaire et logistique avec régularisation (ridge régression),
    • Les arbres de décision (régression et classification)

JOUR 2

  • Les méthodes standards pour mettre en œuvre des modèles prédictifs :
    • Feature engineering : apprendre à réduire la complexité d’un problème,
    • Sélection de variables,
    • Validation croisée,
    • Calibration d’un modèle prédictif
    • Text Mining et web scraping

Prérequis

  • Aucun

Moyens pédagogiques et d’encadrement

  • Séances de formation en salle,
  • Support pédagogiques format numérique,
  • Etudes de cas concrets,
  • Exposés théoriques,
  • Utilisation des données fournies par les participants,
  • Travail approfondi sur les données,
  • Paper-board, vidéoprojecteur, connexion internet

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Machine Learning Avancé
Machine Learning Avancé
  • Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif.
  • À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée.

JOUR 1

  • L’exploration avancées des données :
    • DBSCAN, algorithme de clustering de données non supervisées
    • Manifold Learning

JOUR 2

  • Gaussian Mixture Modelling (GMM)
  • Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS)
  • Support Vector Machine (SVM)

JOUR 3

  • Random Forest et Gradient Boosting Machines
  • L’estimation et la validation croisée par Bootstraping
  • Le filtrage collaboratif et le système de recommandation

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français
Outils avancés - Python
Outils avancés - Python
  • Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly..
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.

JOUR 1 

  • Les traitements avancés des données :
    • La librairie numpy :
      • les fonctions avancées (views, slices)
      • l’interface avec scipy
    • La librairie pandas :
      • L’importation de sources de données externes,
      • L’agrégation de données,
      • Le reshaping,
      • L’indexation,
      • La fusion de sources de données
    • La librairie statmodels :
      • La régression simple et multiple,
      • Les tests des coefficients de régression,
      • Le diagnostic du modèle,
      • La prédiction ponctuelle et par intervalle
    • Le traitement des chaînes de caractères, regex
    • Le traitement des dates et gestion des séries chronologiques

JOUR 2

  • Les générateurs, itertools, lazy evaluation
  • L’interface base de données (SQL, NoSQL)
  • Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap)
  • Les graphiques interactifs avec le package Bokeh et Plotly

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français
Outils avancés - R
Outils avancés - R
  • Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly.
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a

JOUR 1

  • L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven}
  • Les outils pour optimiser les traitements de données, {data.table} et {dplyr} :
    • La manipulation avancée des data frames,
    • L’aggrégation de données,
    • Le reshaping,
    • L’indexation,
    • La fusion de sources de données
  • La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} :
    • La régression simple et multiple,
    • Les tests des coefficients de régression,
    • Le diagnostic du modèle,
    • La prédiction ponctuelle et par intervalle

JOUR 2

  • Le traitement des chaînes de caractères, regex
  • Le traitement des dates et gestion des séries chronologiques
  • L’approche fonctionnelle et lazy evaluation
  •  L’interface base de données (SQL, NoSQL)
  • Les fonctionnalités graphiques avancées avec le package {ggplot2} :
    • Les graphiques en trellis,
    • Les distributions statistiques,
    • Représentation de données avec le heatmap
  • Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly}
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Anglais Français
Outils de base - Python
Outils de base - Python
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en oeuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail : Python 2 et 3.x,
  • La présentation des différentes consoles et le débogage en Python :
    • Anaconda,
    • Jupyter,
    • Spyder
  • Les types de données : listes, dictionnaires
  • Les structures de contrôle
  • Les fonctions, méthodes et packages

JOUR 2

  • La préparation et le nettoyage des données :
    • numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire)
    • scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base)
    • Les distributions de probabilité et statistiques univariées
      • matplotlib : fonctionnalités de base : scatterplot, box plot, histogram
    • L’écriture de scripts simples

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - R
Outils de base - R
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail :
    • Présentation de R 3.x
    • Présentation de RStudio
  • Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples
  • Les structures de contrôle de base de R
  • Les fonctions et les packages importants pour la manipulation de données

JOUR 2

  • Les fonctionnalités de base :
    • Les fonctions numériques simples,
    • Les générateurs de nombre aléatoire
  • Les distributions de probabilité et statistiques univariées
  • Les fonctions scientifiques {stats} et les tests statistiques de base
    • La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram)
  • L’écriture de scripts simples de programmation avec R

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Séries temporelles avec R
Séries temporelles avec R
  • Savoir traiter les séries temporelles avec R

Introduction

  • Tendances et composantes saisonnières
  • Indices descriptifs d’une série temporelle

Lissages exponentiels

  • Lissage simple
  • Lissage double

Estimation et élimination de la tendance et de la saisonnalité

  • Bruit blanc
  • Processus stationnaire
  • Estimation paramétrique de la tendance
  • Estimation non paramétrique
  • Elimination de la tendance et de la saisonnalité

Modélisation des séries stationnaires

  • Auto-corrélation partielle
  • Les processus auto-régressifs
  • Les processus en moyenne mobile
  • Les processus mixtes ARMA
  • Tableau des propriétés
  • Estimation et choix de modèle
  • Processus ARIMA et SARIMA
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Blended Distanciel Présentiel Anglais Français
Économétrie / Finance
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
  • Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations.

4 modules de 3,5 heures chacun

Stata Deb1 : A la rencontre du logiciel 

  • Présentation de l’environnement du logiciel
  • Comment paramétrer une session Stata pour être efficace
  • La syntaxe générale d’une commande de Stata
  • Savoir utiliser l’aide pour devenir autonome
  • Exemple commenté d’une session Stata pour en appréhender les possibilités
  • Importer des données, les décrire et les visualiser : une première approche
  • Un premier Exercice

Stata Deb2 : Travailler ses données 

  • Exploration d’un fichier de données : le conditionnel if, by et in
  • Manipuler des variables : création, recodage, labels et plein d’autres astuces
  • Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées
  • Un exercice pour se tester

Stata Deb3 : Statistiques Descriptives, Tables et Graphiques 

  • Statistiques descriptives
  • Tables statistiques synthétiques
  • Analyse univariée
  • Une introduction à l’analyse de la variance
  • Les graphiques avec Stata
  • Un exercice synthétique

Stata Deb4 : Une introduction à la régression

  • Régression linéaire : estimation, post-estimation, diagnostics et tests
  • Régression logistique : estimation, post-estimation, diagnostics et tests
  • Découverte de la programmation : les boucles
  • Exercice synthétique (suite)

 

Analyse Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
  • Traiter et Analyser des séries temporelles avec Stata.

2 modules de 3,5 heures chacun

Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles

  • Traitement des variables de date et opérateurs de séries temporelles
  • Les graphiques spécifiques pour les séries temporelles
  • Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire
  • Un exercice pratique

Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques

  • La régression linéaire à partir de séries temporelles
  • La modélisation ARIMA
  • La prévision
  • Exercice synthétique
Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais
Ingénierie et développement
Environnement de développement en Data Science
Environnement de développement en Data Science

Comprendre l’écosystème de la data science et connaître les outils afférents à la réalisation d’un projet en data science.

 

Prérequis

Aisance avec les outils informatiques, disposer d’une connexion Internet

Programme détaillé de la formation

JOUR 1

  • L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL
  • Le contrôle de révision et travail collaboratif avec Git
  • La méthodologie de gestion d’un projet en data science
  • Les principes de base du génie logiciel et bonnes pratiques

JOUR 2

  • Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data)
  • L’architecture distribuées et base de données, map-reduce, big data, Apache Spark

 

Moyens pédagogiques et d’encadrement :

  • Plateforme digitale de formation dédiée (LMS).
  • Séances avec le formateur, Support pédagogiques format numérique, alternance entre théorique et pratique.

Dispositif de suivi et d’évaluation des acquis:

Mise en pratique et exercices, Appréciation de la formation à chaud.

Résultats & compétences attendus à l’issue de la formation :

À l’issue de cette formation, le participant aura une idée précise de ce que représente la data science, les outils disponibles pour mettre en oeuvre des projets de data science, quel langage de programmation choisir et comment organiser son travail.

Mis à jour le : 13/04/2021

Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Origin : Analyse de pics
Origin : Analyse de pics
  • Détection et suppression de ligne de base
  • Détection de pics
  • Déconvolution de pics
  • Déconvolution en masse à l’aide de thèmes de calculs

1. Présentation des différents outils relatifs à l’analyse de pic

2. Traitement de la ligne de base

3. Détection de pics

4. Intégration de pics

5. Déconvolution de pics

6. Déconvolution en masse à l’aide de thèmes de calculs

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Batch processing
Origin : Batch processing
  • Réaliser des filtres d’import
  • Automatiser le traitement des données
  • Réaliser des rapports personnalisés et des modèles d’analyse
  • Générer des tables de synthèse d’analyse

1. Filtres d’import

2. Enchainement d’opérations et recalcul automatique

3. Rapports personnalisés

4. Traitement ne masse par drag and drop

5. Traitement en masse avec l’outil Batch Processing

6. Optimisation des calculs avec l’App Distributed Batch Processing

7. Tables de synthèse

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Fonctions de base
Origin : Fonctions de base
  • Importer des données de formats variés
  • Réaliser des graphiques et les personnaliser (styles, templates, thèmes)
  • Traiter les données et automatiser les calculs
  • Réaliser des ajustements de données, créer ses propres fonctions d’ajustement
  • Détecter et déconvoluer des pics

1. Graphiques

  • Graphiques de base
  • Tracés en groupe
  • Personnalisation des courbes et des axes
  • Graphiques statistiques
  • Axes spéciaux (radar, coordonnées polaires)
  • Graphiques de surface et 3D
  • Batch plotting

2. Importation de données

  • Importation de fichiers ASCII, CSV, Excel
  • Personnalisation, import en masse

3. Calculs et manipulation de données

  • Calculs entre colonnes
  • Extraction et réorganisation de données
  • Masquage et filtrage de données
  • Statistiques descriptives
  • Intégration, dérivation, inter/extrapolation
  • Traitement du signal
  • Sauvegarde et réutilisation de thèmes de calculs

4. Ajustement

  • Ajustement linéaire, polynomial et non linéaire
  • Création et édition de fonctions d’ajustement
  • Ranking de fonctions d’ajustement

5. Analyse de pics

  • Détection et intégration de pics
  • Déconvolution de pics

6. Traitement en masse

  • Modèles d’analyse, rapports personnalisés
  • Import et traitement en masse

7. Ajout de fonctionnalités avec les Apps

8. Reconstruction de données à partir de fichiers image

Analyse Ingénierie et développement Intra-entreprise Inter-entreprise Présentiel Français Anglais
Origin : Graphiques avancés
Origin : Graphiques avancés
  • Maitrise des possibilités de personnalisation des graphiques
  • Batch Plotting avancé
  • Stratégies de réalisation de graphiques complexes

1. Utilisation des templates et des clones

2. Personnalisation des thèmes et des listes incrémentales

3. Batch plotting

4. Stratégies de réalisation de graphiques complexes

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Programmation
Origin : Programmation
  • Maîtriser des fonctions de base de la programmation: accès aux différents objets d’Origin, variables, fonctions, boites de dialogue.

1. Environnement

  • Script Window, Command Window et Code Builder
  • Déclenchement de scripts à partir de boutons de raccourci
  • Déclenchement de scripts par des événements

2. Types de variables

3. Accès aux objets Origin

  • Accès aux données issues de workseet
  • Graphiques et personnalisation
  • Objets graphique

4. Opérateurs et calculs

5. Structures des scripts

6. Fonctions

7. Boites de dialogues

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2 :

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3 :

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Conseil Coaching Intra-entreprise Distanciel Présentiel Français
Management du changement
Innover avec le design thinking
Innover avec le design thinking

Comprendre le processus de Design Thinking afin de l’utiliser pour innover et résoudre des problèmes complexes.

1.Discover : à la découverte du challenge à relever
2.Define : définir avec précision le problème à résoudre
3.Develop : imaginer la solution la plus pertinente
4.Deliver : construire la solution et recueillir des feedbacks selon une démarche itérative

Management du changement Process et métiers des laboratoires Intra-entreprise Coaching Présentiel Distanciel Français
Management Agile des projets scientifiques
Management Agile des projets scientifiques
  • Objectifs pédagogiques: Aborder l’état d’esprit et les concepts de l’Agilité
  1. Pourquoi passer à l’Agilité ?
  2. Introduction à l’Agilité
  3. Le vocabulaire de l’Agilité
  4. Les principes de Scrum
Management du changement Process et métiers des laboratoires Intra-entreprise Coaching Présentiel Distanciel Français
Open Source
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Italien Anglais Français
Environnement de développement en Data Science
Environnement de développement en Data Science

Comprendre l’écosystème de la data science et connaître les outils afférents à la réalisation d’un projet en data science.

 

Prérequis

Aisance avec les outils informatiques, disposer d’une connexion Internet

Programme détaillé de la formation

JOUR 1

  • L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL
  • Le contrôle de révision et travail collaboratif avec Git
  • La méthodologie de gestion d’un projet en data science
  • Les principes de base du génie logiciel et bonnes pratiques

JOUR 2

  • Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data)
  • L’architecture distribuées et base de données, map-reduce, big data, Apache Spark

 

Moyens pédagogiques et d’encadrement :

  • Plateforme digitale de formation dédiée (LMS).
  • Séances avec le formateur, Support pédagogiques format numérique, alternance entre théorique et pratique.

Dispositif de suivi et d’évaluation des acquis:

Mise en pratique et exercices, Appréciation de la formation à chaud.

Résultats & compétences attendus à l’issue de la formation :

À l’issue de cette formation, le participant aura une idée précise de ce que représente la data science, les outils disponibles pour mettre en oeuvre des projets de data science, quel langage de programmation choisir et comment organiser son travail.

Mis à jour le : 13/04/2021

Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Initiation au langage R
Initiation au langage R
  • Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage

 

R1 : Premiers pas dans R 

  • Introduction
  • Saisir une commande dans la console
  • Ecrire un script propre, structuré et commenté
  • Créer, modifier, visualiser et effacer un objet
  • Manipuler les différents types de données et structures des données
  • Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions

R2 : Importer, contrôler et exporter des tableaux de données

  • Afficher et modifier le répertoire de travail
  • Importer des données contenues dans un fichier .csv
  • Contrôler les types de ses variables et les modifier si besoin
  • Les variables qualitatives : les facteurs
  • Contrôler les données manquantes
  • Exporter un tableau de données dans un fichier .csv

R3 : Valorisation numérique des données

  • Manipuler son jeu de données (sélection de variables, de lignes …)
  • Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information
  • Statistiques descriptives, comptages, tableau croisé
  • Agrégation de données (statistiques par groupe d’observations)

R4 : Valorisation graphique des données

  • Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire
  • Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …)
  • Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …)
  • Enregistrer un graphique

 

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
L'Analyse de données avec R
L'Analyse de données avec R

Savoir manipuler les données et en tirer de l’information avec R.

Statistiques introductives

  • Statistique univariée
  • Statistique bivariée
  • Introduction à ggplot2, la grammaire des graphiques
  • Graphiques univariés et bivariés avec ggplot2
  • Données pondérées

Statistiques intermédiaires

  • Intervalles de confiance
  • Comparaisons
  • Définir un plan d’échantillonnage complexe
  • Régression linéaire
  • Régression logistiques binaire, multinomiale et ordinale
  • Analyse en correspondances multiples
  • Classification ascendante hiérarchique

Statistiques avancées

  • Effets d’interaction dans un modèle
  • Multi-colinéarité dans la régression
  • Analyse de survie
  • Analyse de séquences
  • Analyse de réseaux
  • Analyse spatiale
Data Science Open Source Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Blended Distanciel Présentiel Anglais Français
Les bases du Machine Learning
Les bases du Machine Learning
  • Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining.
  • À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs.

 JOUR 1

  • Introduction aux méthodes non supervisées :
    • L’analyse en composantes principales (PCA)
    • La classification automatique (k-means),
    • Les règles d’association (apriori, eclat)
  • Introduction aux méthodes supervisées :
    • Les modèles de régression linéaire et logistique avec régularisation (ridge régression),
    • Les arbres de décision (régression et classification)

JOUR 2

  • Les méthodes standards pour mettre en œuvre des modèles prédictifs :
    • Feature engineering : apprendre à réduire la complexité d’un problème,
    • Sélection de variables,
    • Validation croisée,
    • Calibration d’un modèle prédictif
    • Text Mining et web scraping

Prérequis

  • Aucun

Moyens pédagogiques et d’encadrement

  • Séances de formation en salle,
  • Support pédagogiques format numérique,
  • Etudes de cas concrets,
  • Exposés théoriques,
  • Utilisation des données fournies par les participants,
  • Travail approfondi sur les données,
  • Paper-board, vidéoprojecteur, connexion internet

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Machine Learning Avancé
Machine Learning Avancé
  • Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif.
  • À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée.

JOUR 1

  • L’exploration avancées des données :
    • DBSCAN, algorithme de clustering de données non supervisées
    • Manifold Learning

JOUR 2

  • Gaussian Mixture Modelling (GMM)
  • Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS)
  • Support Vector Machine (SVM)

JOUR 3

  • Random Forest et Gradient Boosting Machines
  • L’estimation et la validation croisée par Bootstraping
  • Le filtrage collaboratif et le système de recommandation

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français
Outils avancés - Python
Outils avancés - Python
  • Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly..
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.

JOUR 1 

  • Les traitements avancés des données :
    • La librairie numpy :
      • les fonctions avancées (views, slices)
      • l’interface avec scipy
    • La librairie pandas :
      • L’importation de sources de données externes,
      • L’agrégation de données,
      • Le reshaping,
      • L’indexation,
      • La fusion de sources de données
    • La librairie statmodels :
      • La régression simple et multiple,
      • Les tests des coefficients de régression,
      • Le diagnostic du modèle,
      • La prédiction ponctuelle et par intervalle
    • Le traitement des chaînes de caractères, regex
    • Le traitement des dates et gestion des séries chronologiques

JOUR 2

  • Les générateurs, itertools, lazy evaluation
  • L’interface base de données (SQL, NoSQL)
  • Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap)
  • Les graphiques interactifs avec le package Bokeh et Plotly

 

Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français
Outils avancés - R
Outils avancés - R
  • Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly.
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a

JOUR 1

  • L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven}
  • Les outils pour optimiser les traitements de données, {data.table} et {dplyr} :
    • La manipulation avancée des data frames,
    • L’aggrégation de données,
    • Le reshaping,
    • L’indexation,
    • La fusion de sources de données
  • La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} :
    • La régression simple et multiple,
    • Les tests des coefficients de régression,
    • Le diagnostic du modèle,
    • La prédiction ponctuelle et par intervalle

JOUR 2

  • Le traitement des chaînes de caractères, regex
  • Le traitement des dates et gestion des séries chronologiques
  • L’approche fonctionnelle et lazy evaluation
  •  L’interface base de données (SQL, NoSQL)
  • Les fonctionnalités graphiques avancées avec le package {ggplot2} :
    • Les graphiques en trellis,
    • Les distributions statistiques,
    • Représentation de données avec le heatmap
  • Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly}
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Anglais Français
Outils de base - Python
Outils de base - Python
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en oeuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail : Python 2 et 3.x,
  • La présentation des différentes consoles et le débogage en Python :
    • Anaconda,
    • Jupyter,
    • Spyder
  • Les types de données : listes, dictionnaires
  • Les structures de contrôle
  • Les fonctions, méthodes et packages

JOUR 2

  • La préparation et le nettoyage des données :
    • numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire)
    • scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base)
    • Les distributions de probabilité et statistiques univariées
      • matplotlib : fonctionnalités de base : scatterplot, box plot, histogram
    • L’écriture de scripts simples

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - R
Outils de base - R
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail :
    • Présentation de R 3.x
    • Présentation de RStudio
  • Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples
  • Les structures de contrôle de base de R
  • Les fonctions et les packages importants pour la manipulation de données

JOUR 2

  • Les fonctionnalités de base :
    • Les fonctions numériques simples,
    • Les générateurs de nombre aléatoire
  • Les distributions de probabilité et statistiques univariées
  • Les fonctions scientifiques {stats} et les tests statistiques de base
    • La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram)
  • L’écriture de scripts simples de programmation avec R

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Séries temporelles avec R
Séries temporelles avec R
  • Savoir traiter les séries temporelles avec R

Introduction

  • Tendances et composantes saisonnières
  • Indices descriptifs d’une série temporelle

Lissages exponentiels

  • Lissage simple
  • Lissage double

Estimation et élimination de la tendance et de la saisonnalité

  • Bruit blanc
  • Processus stationnaire
  • Estimation paramétrique de la tendance
  • Estimation non paramétrique
  • Elimination de la tendance et de la saisonnalité

Modélisation des séries stationnaires

  • Auto-corrélation partielle
  • Les processus auto-régressifs
  • Les processus en moyenne mobile
  • Les processus mixtes ARMA
  • Tableau des propriétés
  • Estimation et choix de modèle
  • Processus ARIMA et SARIMA
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Blended Distanciel Présentiel Anglais Français
Process et métiers des laboratoires
Analyse des données épidémiologiques avec STATA
Analyse des données épidémiologiques avec STATA
  • Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population.
  • Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides
  • Décrire et résumer les données
  • Élaborer des hypothèses et analyser les données.
  • Interpréter et communiquer les résultats

 

STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins.

STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche.

Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats.

 

  1. Analyses bio-statistiques de base

Rappels sur le logiciel STATA et sur la manipulation des données

Analyses univariées

  • Analyse de données quantitatives : t-test, tests non paramétriques
  • Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar
  • Corrélation : Pearson, Spearman

Tables épidémiologiques

  • Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées
  • Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable
  • Chi-carré, tests de Fishers exacts et mantel-Haenszel

Exercices

  1. Détermination de la taille de l’échantillon

Calcul de la taille de l’échantillon,

Poids d’échantillonnage

Puissance statistique

Construire des groupes de comparaison valides

Exercices

  1. Introduction aux modèles statistiques de base utilisés en épidémiologie

ANOVA, ANCOVA

Régressions linéaires simples et multiples

Introductions aux notions de confusion, de modification et de médiation

Régression logistique

Exercices

  1. Analyse de survie

Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche)

Modèle de Kaplan-Meier et taux de hasard

Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres.

Prédire les rapports de risque

Exercices

Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais
Bioélectrochimie - Concepts et applications
Bioélectrochimie - Concepts et applications
  • Acquérir les bases en bioélectrochimie.
  • Connaître les outils utilisés en bioélectrochimie.
  • Connaître les applications concrètes des systèmes bioélectrochimiques.
  • Pouvoir collaborer avec des chimistes/biologistes dans le cadre de projets incluant un système bio-électrochimique.

Initiation aux systèmes bioélectrochimiques

  • Qu’est-ce qu’un système bioélectrochimique ?
  • Les biofilms électroactifs.
  • Les microorganismes électroactifs modèles.
  • De la sélection anodique aux interactions microbiennes.
  • Les réacteurs : design et matériaux.

Les applications réelles

  • Traitement des eaux usées.
  • Traitement d’effluents industriels.
  • Production de molécules d’intérêt.
  • Autres applications.
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Présentiel Distanciel Anglais Français
Innover avec le design thinking
Innover avec le design thinking

Comprendre le processus de Design Thinking afin de l’utiliser pour innover et résoudre des problèmes complexes.

1.Discover : à la découverte du challenge à relever
2.Define : définir avec précision le problème à résoudre
3.Develop : imaginer la solution la plus pertinente
4.Deliver : construire la solution et recueillir des feedbacks selon une démarche itérative

Management du changement Process et métiers des laboratoires Intra-entreprise Coaching Présentiel Distanciel Français
Jump Start Signals Notebook
Jump Start Signals Notebook

Module 1: Administrator training (4h, 5 personnes max):

  • Acquérir les compétences afin de pouvoir intégrer, soutenir et faire évoluer la plateforme Signals Notebook aux besoins de votre organisation
  • Apprendre comment votre pratique professionnelle est mise en oeuvre
  • Ajuster les attributs, créer et distribuer des modèles de système, gérer les utilisateurs, les groupes et les associations de groupes, examiner les résultats de l’analyse des données
  • Examiner les options de verrouillage ou de fermeture des travaux
  • Définir les autorisations via la politique de sécurité

Module 2: Introductory, First Time User training for Signals Notebook (2 sessions de 4h, 15 personnes max par session ):

  • Assurer l’adoption rapide de Signals Notebook grâce à la formation des utilisateurs finaux – conçue pour les nouveaux utilisateurs ayant des antécédents scientifiques variés et provenant de diverses disciplines.
  • Apprendre les compétences clés, encourager les meilleures pratiques
  • Apprendre à partager des conseils et des astuces
  • Apprendre à répondre aux questions et se familiariser avec les ressources en libre-service

 

Voir programme détaillé ci-joint.

Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais
Management Agile des projets scientifiques
Management Agile des projets scientifiques
  • Objectifs pédagogiques: Aborder l’état d’esprit et les concepts de l’Agilité
  1. Pourquoi passer à l’Agilité ?
  2. Introduction à l’Agilité
  3. Le vocabulaire de l’Agilité
  4. Les principes de Scrum
Management du changement Process et métiers des laboratoires Intra-entreprise Coaching Présentiel Distanciel Français
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2 :

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3 :

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Conseil Coaching Intra-entreprise Distanciel Présentiel Français
Séquençage haut débit et écologie microbienne
Séquençage haut débit et écologie microbienne
  • Comprendre le séquençage génomique à haut débit.
  • Être capable de choisir la technologie adaptée à son projet.
  • Connaître les outils bio-informatiques utilisés.
  • Connaître les analyses statistiques possibles.
  1. Méthodes moléculaires
    • Séquençage HTS.
    • Métagénomique ciblée.
    • Métagénomique globale.
    • Analyses RNA-seq.
    • CRISPR/Cas9.
  2. Applications en écologie microbienne
    • Extraction d’ADN microbien.
    • Analyse bioinformatique des séquences.
    • L’analyse de données :
      • Diversité, cluster, réseau, core-microbiome
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Présentiel Distanciel Français
Publication
Citavi : outil de gestion bibliographique et publication
Citavi : outil de gestion bibliographique et publication
  • Créer son projet Citavi
  • Organiser et gérer ses références avec Citavi
  • Alimenter sa base avec de nouvelles références par différents exports : DOI, PDF, sites web,…
  • Citer ses références bibliographiques avec Citavi et publier des documents avec Word, des articles contenant des références bibliographiques
  • Echanger et partager ses références et les éléments de connaissances
  1. Introduction à Citavi : exposé théorique (30 min)
  2. Démarrer avec Citavi : Découvrir l’interface et travailler sur un projet (créer, ouvrir, sauver), Collaborer avec Citavi : exercices appliqués (1h30)
  3. Alimenter le projet : Ajouter des références (manuellement, automatiquement),  Rechercher puis insérer des références (depuis Citavi, depuis Internet, avec le Picker) : exercices concrets avec imports de différents formats de documents, navigation sur internet pour rechercher de nouveaux documents (1h30)
  4. Organiser et planifier : Structurer et trier ses références (classement, filtre, tableau) , Rechercher dans son projet (dans les références et le texte intégral), Modifier ses références (les champs, les documents liés, les mots clés, l’évaluation), Planifier son travail (tâches) : présentation et exercices pratiques, étude de cas (1h)
  5. Enrichir avec les éléments de connaissance : Utiliser l’organisateur de connaissance, travailler sur ses documents PDFs (annotations), Ajouter des pensées au projet, Lier un article et sa review : exercices appliqués (1h30)
  6. Exploiter son projet : Utiliser des styles de citation Exporter des références (presse-papier, fichier texte, tableur, par e-mail) Créer la bibliographie d’un projet Rédiger des documents avec Word présentation théorique et application pratique (1h)
Publication Inter-entreprise Intra-entreprise Présentiel Distanciel Français Allemand Italien Anglais
EndNote : outil de gestion bibliographique et de publication
EndNote : outil de gestion bibliographique et de publication
  • Créer sa base de données bibliographique
  • Organiser et gérer ses références avec EndNote
  • Alimenter sa base avec de nouvelles références par différents exports : DOI, PDF, sites web,…
  • Citer ses références bibliographiques avec EndNote et publier des documents avec Microsoft Word, des articles contenant des références bibliographiques
  • Echanger et partager ses références
  1. Prendre en main le logiciel EndNote : présentation du logiciel et prise en main (30 min)
  2. Importer des références vers EndNote depuis différentes sources et différents formats : DOI, PDF, bases de données, site web,… exercices concrets avec imports de différents formats de documents, navigation sur internet pour rechercher de nouveaux documents (1h30)
  3. Saisir manuellement de références : exercices (15 min)
  4. Joindre des documents (pdf, photos, graphique,…) à vos références (15 min)
  5. Organiser votre bibliothèque EndNote (notion de groupes) présentation, exercice et cas concrets (30 min)
  6. Gérer sa bibliothèque (doublon, lien vers texte intégral, personnalisation du logiciel, …) : présentation, exercices (30 min)
  7. Intégrer des citations dans un document ou un article avec le logiciel Word (insérer des références, utiliser des modèles, notion de style bibliographique) présentation, exercices, cas concrets (2h)
  8. Constituer des bibliographies thématiques en fonction des besoins : exercices (30 min)
  9. La notion de style et personnaliser un style : exposé théorique, explication, exercices (30 min)
  10. Echanger et partager ses références : exposé théorique et exercices (30 min)
Publication Intra-entreprise Présentiel Distanciel Français
Mettre en place sa veille scientifique et technologique dans un projet innovant
Mettre en place sa veille scientifique et technologique dans un projet innovant
  • Réussir la mise en œuvre de la veille scientifique, technique et technologique d’un projet.
  • Connaître le cycle de veille et organiser son plan de veille.
  • Organiser les différentes étapes de la veille concrètement.
  1. Se familiariser avec les bases du cycle global de la veille scientifique, présentation théorique et présentation des projets individuels (30 min)
  2. Identifier les étapes clés du processus de veille scientifique, présentation et exercice pratique (30 min)
  3. Méthodologie de recherche d’informations scientifiques, techniques et technologiques : exposé théorique et exercice de mise en pratique (30 min)
  4. Bien définir ses besoins, son périmètre et ses axes de recherche exercice pratique : exercice de mise en pratique  (1h30)
  5. Organiser une veille ciblée cas concret (30 min)
  6. Bien choisir ses sources : les différents moteurs de recherche scientifiques, les bases de données et la littérature grise exercice , fiche technique, fiches conseil(1h30)
  7. Choisir et analyser les informations importantes au projet présentation théorique (30 min)
  8. Evaluer et gérer les informations (15 min)
  9. Diffuser sa veille : présentation (30 min)
  10. Point sur les outils de veille : présentation (15 min)
  11. Ajuster et mener des actions correctives sur le projet : théorie (30 min)

 

Communication et rédaction scientifique Publication Intra-entreprise Inter-entreprise Présentiel Distanciel Français
Statistiques théoriques et appliquées
Analyse des données épidémiologiques avec STATA
Analyse des données épidémiologiques avec STATA
  • Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population.
  • Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides
  • Décrire et résumer les données
  • Élaborer des hypothèses et analyser les données.
  • Interpréter et communiquer les résultats

 

STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins.

STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche.

Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats.

 

  1. Analyses bio-statistiques de base

Rappels sur le logiciel STATA et sur la manipulation des données

Analyses univariées

  • Analyse de données quantitatives : t-test, tests non paramétriques
  • Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar
  • Corrélation : Pearson, Spearman

Tables épidémiologiques

  • Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées
  • Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable
  • Chi-carré, tests de Fishers exacts et mantel-Haenszel

Exercices

  1. Détermination de la taille de l’échantillon

Calcul de la taille de l’échantillon,

Poids d’échantillonnage

Puissance statistique

Construire des groupes de comparaison valides

Exercices

  1. Introduction aux modèles statistiques de base utilisés en épidémiologie

ANOVA, ANCOVA

Régressions linéaires simples et multiples

Introductions aux notions de confusion, de modification et de médiation

Régression logistique

Exercices

  1. Analyse de survie

Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche)

Modèle de Kaplan-Meier et taux de hasard

Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres.

Prédire les rapports de risque

Exercices

Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Italien Anglais Français
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
  • Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations.

4 modules de 3,5 heures chacun

Stata Deb1 : A la rencontre du logiciel 

  • Présentation de l’environnement du logiciel
  • Comment paramétrer une session Stata pour être efficace
  • La syntaxe générale d’une commande de Stata
  • Savoir utiliser l’aide pour devenir autonome
  • Exemple commenté d’une session Stata pour en appréhender les possibilités
  • Importer des données, les décrire et les visualiser : une première approche
  • Un premier Exercice

Stata Deb2 : Travailler ses données 

  • Exploration d’un fichier de données : le conditionnel if, by et in
  • Manipuler des variables : création, recodage, labels et plein d’autres astuces
  • Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées
  • Un exercice pour se tester

Stata Deb3 : Statistiques Descriptives, Tables et Graphiques 

  • Statistiques descriptives
  • Tables statistiques synthétiques
  • Analyse univariée
  • Une introduction à l’analyse de la variance
  • Les graphiques avec Stata
  • Un exercice synthétique

Stata Deb4 : Une introduction à la régression

  • Régression linéaire : estimation, post-estimation, diagnostics et tests
  • Régression logistique : estimation, post-estimation, diagnostics et tests
  • Découverte de la programmation : les boucles
  • Exercice synthétique (suite)

 

Analyse Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
L'Analyse de données avec R
L'Analyse de données avec R

Savoir manipuler les données et en tirer de l’information avec R.

Statistiques introductives

  • Statistique univariée
  • Statistique bivariée
  • Introduction à ggplot2, la grammaire des graphiques
  • Graphiques univariés et bivariés avec ggplot2
  • Données pondérées

Statistiques intermédiaires

  • Intervalles de confiance
  • Comparaisons
  • Définir un plan d’échantillonnage complexe
  • Régression linéaire
  • Régression logistiques binaire, multinomiale et ordinale
  • Analyse en correspondances multiples
  • Classification ascendante hiérarchique

Statistiques avancées

  • Effets d’interaction dans un modèle
  • Multi-colinéarité dans la régression
  • Analyse de survie
  • Analyse de séquences
  • Analyse de réseaux
  • Analyse spatiale
Data Science Open Source Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Blended Distanciel Présentiel Anglais Français
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2 :

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3 :

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Conseil Coaching Intra-entreprise Distanciel Présentiel Français
Stata ERM : Les modèles de régression étendus
Stata ERM : Les modèles de régression étendus
  • Apprendre à prendre en compte les différentes sources d’endogénéité dans un modèle de régression

1 modules de 3,5 heures

  • Les différentes sources d’endogénéité et les conséquences sur les propriétés des estimateurs
  • Les méthodes d’estimation pour en tenir compte
  • Une commande synthétique qui permet de considérer ces différentes sources dans un seul modèle
  • Un exercice pratique

 

Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais
Stata Lasso
Stata Lasso
  • Maîtriser les méthodes Lasso (least absolute shrinkage and selection operator) avec Stata pour la prédiction et l’/ou l’inférence sur les paramètres causaux. Cette méthode de régression (généralement utilisée dans les problèmes en grande dimension) consiste à pénaliser la taille absolue des coefficients de régression.
  • Comment sélectionner des variables dans un très grand ensemble de variables potentielles ?
  • Objectif sélection ou prédiction ?
  • Variables quantitatives ou qualitatives
  • La validation croisée
  • La représentation des résultats
  • Quelques prolongements
Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais
Stata Perfectionnement : Stata Av1 – Stata Av4
Stata Perfectionnement : Stata Av1 – Stata Av4
  • Améliorer la maîtrise du logiciel et découvrir des fonctions avancées de Stata
    • Déclarer les données dans différents formats
    • Estimation avancées
    • Programmation.

4 modules de 3,5 heures chacun

Stata Av1 : Gestion avancée des données

  • Traitement des variables alphanumériques
  • Fusion et agrégation de données
  • Traitement des variables de date et opérateurs de séries temporelles
  • Gestion avancée des graphiques

Stata Av2 : Programmation avec Stata

  • Les macros locales et globales
  • Les boucles, les sommes et les compteurs, les variables temporaires
  • Programmer pour reproduire
  • Exemples d’application

Stata Av3 : Méthodes d’estimations, tests et prédictions

  • La régression linéaire avec variables qualitatives et interactions
  • Présenter les résultats dans un tableau synthétique et les exporter
  • Tests de spécification et diagnostics
  • Extension à d’autres méthodes d’estimation

Stata Av4 : Introduction à l’estimation sur données de panel

  • Structurer et visualiser les données
  • Modèle à effets fixes
  • Modèles à effets aléatoires
  • Quelques extensions
Analyse Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
  • Traiter et Analyser des séries temporelles avec Stata.

2 modules de 3,5 heures chacun

Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles

  • Traitement des variables de date et opérateurs de séries temporelles
  • Les graphiques spécifiques pour les séries temporelles
  • Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire
  • Un exercice pratique

Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques

  • La régression linéaire à partir de séries temporelles
  • La modélisation ARIMA
  • La prévision
  • Exercice synthétique
Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais
Filtres
Catégorie
Type de formation
Modalité
Langue

Vous recherchez des informations sur une formation ?

Vous souhaitez mettre en place une session de formation sur mesure ?

Contactez notre équipe pédagogique !

ChemDraw & ChemOffice
ChemDraw s’est imposé depuis longtemps comme la référence des logiciels de dessin de structures moléculaires. Afin de proposer à chaque utilisateur l’outil adapté à ses besoins, le logiciel existe maintenant en trois versions : ChemDraw Prime, ChemDraw Professional et ChemOffice+ Cloud. Cette déclinaison permet de satisfaire les besoins de tous les chercheurs, étudiants et professeurs impliqués dans la chimie et les domaines connexes. ChemDraw Professional pour Mac et ChemOffice+ Cloud intègrent maintenant un cahier de laboratoire électronique accessible via le cloud, permettant de collaborer facilement et sans contraintes.