Catalogue de formation

Vous trouverez ici notre catalogue de formations ‘sur étagère’: les programmes qui servent de base et de repères pour ce que nous pouvons réaliser ensemble.

Certaines de ces formations correspondent à des problématiques très précises et répondent à un besoin circonscrit, comme les formations sur une méthode spécifique abordée via le prisme d’un logiciel ; d’autres peuvent s’associer afin de composer un véritable parcours de formation modulaire qui assure une montée en compétences progressive.

Toutes nos formations sont proposées en intra-entreprise, c’est à dire pour une personne, une équipe ou un établissement en particulier: elles peuvent être adaptées à vos contraintes et à vos objectifs dans le cadre de formations sur-mesure.

Plusieurs formations sont aussi proposées en sessions inter-entreprise, c’est-à-dire que vous pouvez décider de vous inscrire individuellement, en toute liberté, à une session proposée à notre calendrier. Bien que les informations disponibles pour chacune de ces formations tentent d’être exhaustives, si vous aviez des questions ou des doutes quant au niveau ou aux prérequis, nous nous ferons un plaisir de valider ensemble l’adéquation entre le programme et votre objectif.

N’hésitez à nous consulter pour déterminer ensemble la forme que prendra votre projet de formation

Nos formations inter-entreprise se tiennent pour l’instant en classe virtuelle, et vous pouvez bénéficier durant toute leur durée de l’accès à notre plateforme de formation dédiée : un espace où participer aux sessions, accéder aux contenus pédagogiques, vous documenter, participer aux sessions, échanger avec les autres apprenants, et plus encore.

Nos conditions Générales de Vente formations sont téléchargeables ci-dessous :

Délais d’accès aux formations

Dans le cadre des inter-entreprises, vous avez la possibilité de vous inscrire jusqu’à 2 jours ouvrés à l’avance, sous réserve de disponibilité. Notre équipe formation prendra contact avec vous pour valider votre participation (réception d’un bon de commande, d’une convention de formation ou d’un paiement) . En cas de prise en charge par un organisme-financeur (OPCO), merci de vérifier leurs conditions spécifiques.

Dans le cadre des formations intra-entreprises, le délai moyen d’accès à nos formations est de 21 jours ouvrés ; la réalisation effective de la formation dépendra des disponibilités de vos équipes et des nôtres.

Public en situation de handicap

Nous avons entrepris des démarches afin de nous adapter et conscientiser nos équipes et partenaires autour d’une approche globale du handicap, Nous œuvrons pour plus d’inclusivité et pour garantir l’égalité des chances et d’accès à nos parcours de formation, quelle que soit la situation des apprenants.

N’hésitez pas à nous faire part de vos besoins spécifiques. Nous n’aurons peut-être pas la solution d’emblée, mais nous mettrons tout en œuvre pour fournir une réponse individualisée et vous accueillir dans les meilleures conditions.

Pour plus d’informations, vous pouvez contacter notre Référent Handicap en vous adressant à formation(at)ritme.com.

Analyse
Analyse des données épidémiologiques avec STATA
Analyse des données épidémiologiques avec STATA
  • Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population.
  • Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides
  • Décrire et résumer les données
  • Élaborer des hypothèses et analyser les données.
  • Interpréter et communiquer les résultats

 

STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins.

STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche.

Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats.

  1. Analyses bio-statistiques de base

Rappels sur le logiciel STATA et sur la manipulation des données

Analyses univariées

  • Analyse de données quantitatives : t-test, tests non paramétriques
  • Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar
  • Corrélation : Pearson, Spearman

Tables épidémiologiques

  • Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées
  • Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable
  • Chi-carré, tests de Fishers exacts et mantel-Haenszel

Exercices

  1. Détermination de la taille de l’échantillon

Calcul de la taille de l’échantillon,

Poids d’échantillonnage

Puissance statistique

Construire des groupes de comparaison valides

Exercices

  1. Introduction aux modèles statistiques de base utilisés en épidémiologie

ANOVA, ANCOVA

Régressions linéaires simples et multiples

Introductions aux notions de confusion, de modification et de médiation

Régression logistique

Exercices

  1. Analyse de survie

Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche)

Modèle de Kaplan-Meier et taux de hasard

Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres.

Prédire les rapports de risque

Exercices

Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais
Construire un projet de recherche qualitative avec NVivo
Construire un projet de recherche qualitative avec NVivo
  • Comprendre les enjeux méthodologiques liés à l’utilisation de NVivo
  • Connaitre et comprendre l’interface de NVivo
  • Être en mesure d’importer et d’organiser des données qualitatives dans NVivo
  • Être en mesure de coder des données
  • Connaitre les fonctionnalités avancées du logiciel (requêtes, double-codage, quantification de l’analyse qualitative)

Demi-journée 1

  1. Introduction au logiciel NVivo
  2. Présentation de l’interface à l’aide du projet exemple
  3. Création/Importation/Edition des documents
  4. Mémos, mémos liés, liens à, annotations

Demi-journée 2

  1. Les classifications de fichiers
  2. Les cas et les classifications de cas
  3. L’encodage avec les codes (encodage, désencodage, bandes d’encodage, codage in vivo, organisation hiérarchique des codes, agrégation d’en l’encodage, codebook)

Demi-journée 3

  1. L’encodage des relations
  2. L’encodage automatique des sentiments et des thèmes
  3. Travailler avec des données non-textuelles (pdf, vidéo/audio, images, enquêtes)
  4. NCapture (si les participants utilisent Google Chrome ou Internet Explorer)
  5. Les représentations visuelles (cartes, diagramme de comparaison, etc.)

Demi-journée 4

  1. La requête fréquence de mots
  2. La requête de recherche textuelle
  3. La requête d’encodage
  4. La requête matricielle
  5. La requête de tableau croisé
  6. La comparaison d’encodage et le double codage (sous réserve de temps disponible)
Analyse Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
  • Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations.

Stata Deb1 : A la rencontre du logiciel 

  • Présentation de l’environnement du logiciel
  • Comment paramétrer une session Stata pour être efficace
  • La syntaxe générale d’une commande de Stata
  • Savoir utiliser l’aide pour devenir autonome
  • Exemple commenté d’une session Stata pour en appréhender les possibilités
  • Importer des données, les décrire et les visualiser : une première approche
  • Un premier Exercice

Stata Deb2 : Travailler ses données 

  • Exploration d’un fichier de données : le conditionnel if, by et in
  • Manipuler des variables : création, recodage, labels et plein d’autres astuces
  • Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées
  • Un exercice pour se tester

Stata Deb3 : Statistiques Descriptives, Tables et Graphiques 

  • Statistiques descriptives
  • Tables statistiques synthétiques
  • Analyse univariée
  • Une introduction à l’analyse de la variance
  • Les graphiques avec Stata
  • Un exercice synthétique

Stata Deb4 : Une introduction à la régression

  • Régression linéaire : estimation, post-estimation, diagnostics et tests
  • Régression logistique : estimation, post-estimation, diagnostics et tests
  • Découverte de la programmation : les boucles
  • Exercice synthétique (suite)

 

Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Distanciel Français Anglais
Formation modulaire à NVivo - Approfondissement de NVivo
Formation modulaire à NVivo - Approfondissement de NVivo

Échanger avec les participants sur leurs pratiques de NVivo et approfondissement des connaissances et compétences suivantes :

  • Maitriser l’environnement NVivo.
  • Gestion des sources
  • Gestion des cas
  • Codage des sources
  • Requêtes et matrices
  • Documenter son analyse ; mémos, annotations et liens à.
  • Visualisation et exportation
  • L’importation et l’utilisation des données provenant des réseaux sociaux et du web
  • Le travail collaboratif et la comparaison d’encodeur.

Retour sur les principes de bases : L’analyse qualitative avec NVivo (3h)

  • Échange avec les participants sur leurs pratiques + Remise à niveau si nécessaire (3h)
  • Échange avec les participants sur les pratiques et leurs besoins.
  • Le but de ce module est d’uniformiser les connaissances du logiciel et de l’analyse qualitative.
  • Chaque participant pourra présenter ses recherches et les questions qu’ils se posent en vue de préparer la formation

Module 1 : La génération et utilisation des cas à travers les requêtes (2h)

  • Cas, classifications, attributs et valeurs d’attributs quelles différences dans NVivo ?
  • Importation de feuilles de caractéristiques via Excel
  • Organisation de cas et imbrications des différents niveaux

Module 2 : Les requêtes automatiques et le travail collaboratif (2h)

  • Codage automatique des émotions et des thèmes
  • Codage automatique sur base de la structure des documents – travailler avec des entretiens semi-structurés et structurés
  • Travailler avec plusieurs sur un projet NVivo
  • La comparaison d’encodeur

Module 3 : Les requêtes : Approfondir la compréhension de son corpus et son codage (2h)

  • Les requêtes de fréquences et les nuages de mots
  • La recherche de mots, synapsie et classification hiérarchiques descendantes.
  • Encodage matriciel : approches exploratoires et recouvrement de mots
  • Tableaux croisés : recoupement des noeuds et caractéristiques
  • Requêtes d’encodage : résoudre un questionnement en quelques clics

Module 4 : Documenter ses analyses, son travail et les visualisations (2h)

  • Mémos et annotations
  • Liens à
  • Liaisons internes
  • Matrices à condenser
  • Les diagrammes de comparaisons, grappes, cartes de projets et conceptuelles.

Module 5 : Le travail depuis les données du Web (2h)

  • Importer les données depuis tTwitter, Facebook et YouTube
  • Importer les données depuis des sites web
  • L’analyse de réseaux avec NVivo

Module 6 : La revue de littérature avec NVivo (2h)

  • Importer ses documents scientifiques à partir de (Endnote, Zotéro, Refworks ou Mendeley)
  • Codage thématique des documents scientifiques
Analyse Inter-entreprise Coaching Intra-entreprise Distanciel Présentiel Français Anglais
Formation modulaire à NVivo - Découvrir Nvivo
Formation modulaire à NVivo - Découvrir Nvivo
  • Comprendre le rôle de NVivo dans le processus de l’analyse qualitative.
  • Comprendre et maîtriser l’environnement NVivo.
    • Gestion des sources
    • Gestion des cas
    • Codage des sources
    • Les matrices de croisement
    • Documenter son analyse ; mémos, annotations et liens à.

Première demi-journée
1. L’analyse qualitative avec NVivo et prise en main du logiciel (1h)

  • Rappel des principes de bases en analyse qualitative
  • La place des logiciels d’aide à l’analyse qualitative dans le processus de recherche
  • Nvivo son interface et sa philosophie

2. La préparation d’un projet (1h)

  • Préparation des sources, organisation du logiciel et importation de sources (données textuelles en word et pdf et images)
  • La carte mentale NVivo : le brainstorming comme point de départ du codage
  • Exercices pratiques

3. Le codage déductif et inductif (2h)

  • Exercices pratiques sur base de données textuelles et image. Les différentes logiques de codage.
  • Les relations

 

Module 1 : Le cas particulier des données audio et vidéos et la transcription (2h)

  • Les différents types de transcription.
  • Échange entre les participants sur leurs pratiques
  • Les outils pour réaliser une transcription efficacement
  • Démonstration de NVivo transcription I
  • Importation de transcription réalisée en dehors de Nvivo

Module 2 : Les requêtes automatiques (2h)

  • Codage automatique des émotions et des thèmes
  • Codage automatique sur base de la structure des documents – travailler avec des entretiens semi-structurés et structurés

Module 3 : Travailler avec des enquêtes et des tableaux de données (2h)

  • Importation des fichiers Excel
  • Le codage automatique des tableaux de données

Module 4 : Documenter ses analyses, son travail + Matrices de croisements (2h)

  • Mémos et annotations
  • Liens à
  • Liaisons internes
  • Les matrices de croisement pour explorer les liens entre les idées
Analyse Inter-entreprise Intra-entreprise Coaching Distanciel Présentiel Français Anglais
Formation modulaire à NVivo - Devenir Expert NVivo
Formation modulaire à NVivo - Devenir Expert NVivo
  • Comprendre le rôle de NVivo dans le processus de l’analyse qualitative.
  • Comprendre et maîtriser l’environnement NVivo :
    • Gestion des sources
    • Gestion des cas
    • Codage des sources
    • Requêtes et matrices
    • Documenter son analyse ; mémos, annotations et liens à.
    • Visualisation et exportation
    • L’importation et l’utilisation des données provenant des réseaux sociaux et du web
    • Le travail collaboratif et la comparaison d’encodeur.
  1. L’analyse qualitative avec NVivo et prise en main du logiciel (1h)
  2. La préparation d’un projet (1h)
  3. Le codage déductif et inductif (2h)
  4. Le cas particulier des données audio et vidéos et la transcription (2h)
  5. Les cas dans NVivo (2h)
  6. Les requêtes : Approfondir la compréhension de son corpus et son codage (3h)
  7. Les requêtes automatiques (2h)
  8. Travailler avec des enquêtes et des tableaux de données (2h)
  9. Documenter ses analyses, son travail et les visualisations (2h)
  10. Le travail depuis les données du Web (2h)
  11. Le travail collaboratif (2h)
  12. La revue de littérature avec NVivo (1h)
Analyse Coaching Intra-entreprise Distanciel Présentiel Anglais Français
Graphiques scientifiques avec PRISM
Graphiques scientifiques avec PRISM
  • Découvrir l’ensemble des possibilités offertes par PRISM pour obtenir le graphique que l’on souhaite, tracé automatique des courbes d’ajustement compris.

1. Notions de base

  • Présentation des possibilités de PRISM au travers d’exemples permettant aux participants de pointer au formateur les représentations qui les intéressent le plus.
  • Créer un premier graphique pour mieux comprendre les impératifs relatifs aux feuilles de données.
  • La notion de projet (structure d’un fichier PRISM, sections, liens automatiques, les boutons « magiques », etc.).
  • La navigation et la gestion d’un projet PRISM (trouver la bonne feuille de données, renommer les feuilles, geler les feuilles, réordonner les feuilles, fusionner et fractionner des projets).
  • Les feuilles d’information.

2. Les feuilles de données : Concepts essentiels

  • Présentation des huit types de feuilles de données.
  • Column : Test pour les échantillons appariés et non appariés. Identifier les valeurs aberrantes.
  • XY : analyse de corrélation.
  • Grouped : ANOVA bidirectionnelle.
  • Contingency : Chi-carré.
  • Survival : Kaplan-Meier et test du log-rank.
  • Parts of whole : diagramme circulaire.
  • Nested : Nested t-test.
  • Multiple variables : analyse de plusieurs variables simultanément.

3. Graphiques avec PRISM

  • Création et modification des graphiques (graphiques multiples à partir de la même table, modification des propriétés, etc.).
  • Modification des barres et symboles (formats et couleurs des lignes et symboles, changement de l’aspect d’une donnée).
  • Les axes (échelles, limites, ruptures, numérotation, titres, montrer et cacher les graduations). Les axes logarithmiques.
  • La maîtrise des couleurs.
  • Tables encapsulées dans les graphiques.
  • Les légendes.
  • Dispositions sur la page (layouts).

4. Importation et exportation de données

  • Méthodes rapides d’importation de données comme alternative au copier-coller.
  • Exportations aux formats exigés.

5. Analyses et graphiques répétitifs (templates) et remarques finales

Analyse Chimie / Bio Intra-entreprise Distanciel Présentiel Français Anglais
Initiation au langage de R
Initiation au langage de R
  • Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage

R1 : Premiers pas dans R 

  • Introduction
  • Saisir une commande dans la console
  • Ecrire un script propre, structuré et commenté
  • Créer, modifier, visualiser et effacer un objet
  • Manipuler les différents types de données et structures des données
  • Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions

R2 : Importer, contrôler et exporter des tableaux de données

  • Afficher et modifier le répertoire de travail
  • Importer des données contenues dans un fichier .csv
  • Contrôler les types de ses variables et les modifier si besoin
  • Les variables qualitatives : les facteurs
  • Contrôler les données manquantes
  • Exporter un tableau de données dans un fichier .csv

R3 : Valorisation numérique des données

  • Manipuler son jeu de données (sélection de variables, de lignes …)
  • Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information
  • Statistiques descriptives, comptages, tableau croisé
  • Agrégation de données (statistiques par groupe d’observations)

R4 : Valorisation graphique des données

  • Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire
  • Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …)
  • Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …)
  • Enregistrer un graphique
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Machine Learning Avancé
Machine Learning Avancé
  • Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif.
  • À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée.

JOUR 1

  • L’exploration avancées des données :
    • DBSCAN, algorithme de clustering de données non supervisées
    • Manifold Learning

JOUR 2

  • Gaussian Mixture Modelling (GMM)
  • Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS)
  • Support Vector Machine (SVM)

JOUR 3

  • Random Forest et Gradient Boosting Machines
  • L’estimation et la validation croisée par Bootstraping
  • Le filtrage collaboratif et le système de recommandation

 

Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Anglais Français
Machine Learning bases
Machine Learning bases
  • Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining.
  • À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs.

 JOUR 1

  • Introduction aux méthodes non supervisées :
    • L’analyse en composantes principales (PCA)
    • La classification automatique (k-means),
    • Les règles d’association (apriori, eclat)
  • Introduction aux méthodes supervisées :
    • Les modèles de régression linéaire et logistique avec régularisation (ridge régression),
    • Les arbres de décision (régression et classification)

JOUR 2

  • Les méthodes standards pour mettre en œuvre des modèles prédictifs :
    • Feature engineering : apprendre à réduire la complexité d’un problème,
    • Sélection de variables,
    • Validation croisée,
    • Calibration d’un modèle prédictif
    • Text Mining et web scraping
Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Anglais Français
Origin : Analyse de pics
Origin : Analyse de pics
  • Détection et suppression de ligne de base
  • Détection de pics
  • Déconvolution de pics
  • Déconvolution en masse à l’aide de thèmes de calculs

1. Présentation des différents outils relatifs à l’analyse de pic

2. Traitement de la ligne de base

3. Détection de pics

4. Intégration de pics

5. Déconvolution de pics

6. Déconvolution en masse à l’aide de thèmes de calculs

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Batch processing
Origin : Batch processing
  • Réaliser des filtres d’import
  • Automatiser le traitement des données
  • Réaliser des rapports personnalisés et des modèles d’analyse
  • Générer des tables de synthèse d’analyse

1. Filtres d’import

2. Enchainement d’opérations et recalcul automatique

3. Rapports personnalisés

4. Traitement ne masse par drag and drop

5. Traitement en masse avec l’outil Batch Processing

6. Optimisation des calculs avec l’App Distributed Batch Processing

7. Tables de synthèse

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Origin : Fonctions de base
Origin : Fonctions de base
  • Importer des données de formats variés
  • Réaliser des graphiques et les personnaliser (styles, templates, thèmes)
  • Traiter les données et automatiser les calculs
  • Réaliser des ajustements de données, créer ses propres fonctions d’ajustement
  • Détecter et déconvoluer des pics

1. Graphiques

  • Graphiques de base
  • Tracés en groupe
  • Personnalisation des courbes et des axes
  • Graphiques statistiques
  • Axes spéciaux (radar, coordonnées polaires)
  • Graphiques de surface et 3D
  • Batch plotting

2. Importation de données

  • Importation de fichiers ASCII, CSV, Excel
  • Personnalisation, import en masse

3. Calculs et manipulation de données

  • Calculs entre colonnes
  • Extraction et réorganisation de données
  • Masquage et filtrage de données
  • Statistiques descriptives
  • Intégration, dérivation, inter/extrapolation
  • Traitement du signal
  • Sauvegarde et réutilisation de thèmes de calculs

4. Ajustement

  • Ajustement linéaire, polynomial et non linéaire
  • Création et édition de fonctions d’ajustement
  • Ranking de fonctions d’ajustement

5. Analyse de pics

  • Détection et intégration de pics
  • Déconvolution de pics

6. Traitement en masse

  • Modèles d’analyse, rapports personnalisés
  • Import et traitement en masse

7. Ajout de fonctionnalités avec les Apps

8. Reconstruction de données à partir de fichiers image

Analyse Ingénierie et développement Inter-entreprise Intra-entreprise Présentiel Français Anglais
Origin : Graphiques avancés
Origin : Graphiques avancés
  • Maitrise des possibilités de personnalisation des graphiques et stratégies de réalisation de graphiques complexes

1. Tirer le meilleur parti des templates, clones et thèmes

2. Stratégies de réalisation de graphiques complexes

3. Travaux à partir de cas concrets des participants

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Origin : Programmation
Origin : Programmation
  • Maîtriser des fonctions de base de la programmation: accès aux différents objets d’Origin, variables, fonctions, boites de dialogue.

1. Environnement

  • Script Window, Command Window et Code Builder
  • Déclenchement de scripts à partir de boutons de raccourci
  • Déclenchement de scripts par des événements

2. Types de variables

3. Accès aux objets Origin

  • Accès aux données issues de workseet
  • Graphiques et personnalisation
  • Objets graphique

4. Opérateurs et calculs

5. Structures des scripts

6. Fonctions

7. Boites de dialogues

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Outils avancés - Python
Outils avancés - Python
  • Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly

JOUR 1 

  • Les traitements avancés des données :
    • La librairie numpy :
      • les fonctions avancées (views, slices)
      • l’interface avec scipy
    • La librairie pandas :
      • L’importation de sources de données externes,
      • L’agrégation de données,
      • Le reshaping,
      • L’indexation,
      • La fusion de sources de données
    • La librairie statmodels :
      • La régression simple et multiple,
      • Les tests des coefficients de régression,
      • Le diagnostic du modèle,
      • La prédiction ponctuelle et par intervalle
    • Le traitement des chaînes de caractères, regex
    • Le traitement des dates et gestion des séries chronologiques

JOUR 2

  • Les générateurs, itertools, lazy evaluation
  • L’interface base de données (SQL, NoSQL)
  • Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap)

 

Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Français Anglais
Outils avancés - R
Outils avancés - R
  • Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly.
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a

JOUR 1

  • L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven}
  • Les outils pour optimiser les traitements de données, {data.table} et {dplyr} :
    • La manipulation avancée des data frames,
    • L’aggrégation de données,
    • Le reshaping,
    • L’indexation,
    • La fusion de sources de données
  • La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} :
    • La régression simple et multiple,
    • Les tests des coefficients de régression,
    • Le diagnostic du modèle,
    • La prédiction ponctuelle et par intervalle

JOUR 2

  • Le traitement des chaînes de caractères, regex
  • Le traitement des dates et gestion des séries chronologiques
  • L’approche fonctionnelle et lazy evaluation
  •  L’interface base de données (SQL, NoSQL)
  • Les fonctionnalités graphiques avancées avec le package {ggplot2} :
    • Les graphiques en trellis,
    • Les distributions statistiques,
    • Représentation de données avec le heatmap
  • Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly}
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - Python
Outils de base - Python
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib.

JOUR 1

  • L’environnement de travail : Python 2 et 3.x,
  • La présentation des différentes consoles et le débogage en Python :
    • Anaconda,
    • Jupyter,
    • Spyder
  • Les types de données : listes, dictionnaires
  • Les structures de contrôle
  • Les fonctions, méthodes et packages

JOUR 2

  • La préparation et le nettoyage des données :
    • numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire)
    • scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base)
    • Les distributions de probabilité et statistiques univariées simples
  • Fonctions graphiques de base (scatterplot, box plot, histogrammes)
  • L’écriture de scripts simples

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - R
Outils de base - R
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail :
    • Présentation de R 3.x
    • Présentation de RStudio
  • Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples
  • Les structures de contrôle de base de R
  • Les fonctions et les packages importants pour la manipulation de données

JOUR 2

  • Les fonctionnalités de base :
    • Les fonctions numériques simples,
    • Les générateurs de nombre aléatoire
  • Les distributions de probabilité et statistiques univariées
  • Les fonctions scientifiques {stats} et les tests statistiques de base
    • La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram)
  • L’écriture de scripts simples de programmation avec R

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Coaching Conseil Présentiel Distanciel Français
Séries temporelles avec R
Séries temporelles avec R
  • Savoir traiter les séries temporelles avec R

Introduction

  • Tendances et composantes saisonnières
  • Indices descriptifs d’une série temporelle

Lissages exponentiels

  • Lissage simple
  • Lissage double

Estimation et élimination de la tendance et de la saisonnalité

  • Bruit blanc
  • Processus stationnaire
  • Estimation paramétrique de la tendance
  • Estimation non paramétrique
  • Elimination de la tendance et de la saisonnalité

Modélisation des séries stationnaires

  • Auto-corrélation partielle
  • Les processus auto-régressifs
  • Les processus en moyenne mobile
  • Les processus mixtes ARMA
  • Tableau des propriétés
  • Estimation et choix de modèle
  • Processus ARIMA et SARIMA
Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais
Stata ERM : Les modèles de régression étendus
Stata ERM : Les modèles de régression étendus
  • Apprendre à prendre en compte les différentes sources d’endogénéité dans un modèle de régression

1 modules de 3,5 heures

  1. Les différentes sources d’endogénéité et les conséquences sur les propriétés des estimateurs
  2. Les méthodes d’estimation pour en tenir compte
  3. Une commande synthétique qui permet de considérer ces différentes sources dans un seul modèle
  4. Un exercice pratique

 

Analyse Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Anglais Français
Stata Lasso
Stata Lasso
  • Maîtriser les méthodes Lasso (least absolute shrinkage and selection operator) avec Stata pour la prédiction et l’/ou l’inférence sur les paramètres causaux. Cette méthode de régression (généralement utilisée dans les problèmes en grande dimension) consiste à pénaliser la taille absolue des coefficients de régression.
  1. Comment sélectionner des variables dans un très grand ensemble de variables potentielles ?
  2. Objectif sélection ou prédiction ?
  3. Variables quantitatives ou qualitatives
  4. La validation croisée
  5. La représentation des résultats
  6. Quelques prolongements
Analyse Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Anglais Français
Stata Perfectionnement : Stata Av1 – Stata Av4
Stata Perfectionnement : Stata Av1 – Stata Av4
  • Améliorer la maîtrise du logiciel et découvrir des fonctions avancées de Stata
    • Déclarer les données dans différents formats
    • Estimation avancées
    • Programmation.

Stata Av1 : Gestion avancée des données

  • Traitement des variables alphanumériques
  • Fusion et agrégation de données
  • Traitement des variables de date et opérateurs de séries temporelles
  • Gestion avancée des graphiques

Stata Av2 : Programmation avec Stata

  • Les macros locales et globales
  • Les boucles, les sommes et les compteurs, les variables temporaires
  • Programmer pour reproduire
  • Exemples d’application

Stata Av3 : Méthodes d’estimations, tests et prédictions

  • La régression linéaire avec variables qualitatives et interactions
  • Présenter les résultats dans un tableau synthétique et les exporter
  • Tests de spécification et diagnostics
  • Extension à d’autres méthodes d’estimation

Stata Av4 : Introduction à l’estimation sur données de panel

  • Structurer et visualiser les données
  • Modèle à effets fixes
  • Modèles à effets aléatoires
  • Quelques extensions
Analyse Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Distanciel Présentiel Anglais Français
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
  • Traiter et Analyser des séries temporelles avec Stata.

Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles

  • Traitement des variables de date et opérateurs de séries temporelles
  • Les graphiques spécifiques pour les séries temporelles
  • Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire
  • Un exercice pratique

Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques

  • La régression linéaire à partir de séries temporelles
  • La modélisation ARIMA
  • La prévision
  • Exercice synthétique
Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Anglais
Chimie / Bio
Bioélectrochimie - Concepts et applications
Bioélectrochimie - Concepts et applications
  • Acquérir les bases en bioélectrochimie.
  • Connaître les outils utilisés en bioélectrochimie.
  • Connaître les applications concrètes des systèmes bioélectrochimiques.
  • Pouvoir collaborer avec des chimistes/biologistes dans le cadre de projets incluant un système bio-électrochimique.

Initiation aux systèmes bioélectrochimiques

  • Qu’est-ce qu’un système bioélectrochimique ?
  • Les biofilms électroactifs.
  • Les microorganismes électroactifs modèles.
  • De la sélection anodique aux interactions microbiennes.
  • Les réacteurs : design et matériaux.

Les applications réelles

  • Traitement des eaux usées.
  • Traitement d’effluents industriels.
  • Production de molécules d’intérêt.
  • Autres applications.
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français Anglais
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais
Formation FindMolecule : ELN
Formation FindMolecule : ELN
  • Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche.
  • Comprendre et maîtriser l’environnement FindMolecule.

Présentation (5 min)

  • Présentation du formateur ;
  • Résumé du programme de la formation ;
  • Prise de présence

Module 1. Utilisation du logiciel (2h55)

  • Section « Mon labo » et paramètres personnels
    • Gestion des paramètres personnels et notifications
    • Création de projets
    • Période de questions
  • Section « Cahier de laboratoire »
    • Le menu de gauche
      • Comment utiliser le menu de gauche
      • Connaître l’information contenue dans ce menu
    • Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages
      • Apprendre à utiliser les différents onglets
      • Comment accéder à l’information qu’ils contiennent
      • Comment gérer les paramètres de l’onglet Réglages
    • Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique)
      • Comment créer une expérience de laboratoire
      • Comment remplir les différentes sections d’une expérience
      • Comment compléter une expérience, de la création à la demande de contre-signature
      • Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience
      • Comment lier deux expériences
      • Comment cloner une expérience
      • Comment accéder aux expériences de nos collègues
    • Période de questions

Module 2. Gestion du logiciel (1h00)

Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées.

  • Section « Mon labo »
    • Comment ajouter, modifier et désactiver des utilisateurs
    • Comment créer, modifier et supprimer des projets
      • Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte
  • Section « Cahier de laboratoire »
    • Paramètres disponibles
  • Utilisation du rôle « Directeur »
  • Utilisation du rôle « Institution Admin »
  • Période de questions
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français
Formation FindMolecule : Inventaire
Formation FindMolecule : Inventaire
  • Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche.
  • Comprendre et maîtriser l’environnement FindMolecule.
    • Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises
    • Utiliser « Inventaire » et « Cahier de laboratoire »
    • Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire »

Présentation (5 min)

  • Présentation du formateur ;
  • Résumé du programme de la formation ;
  • Prise de présence

Module 1. Utilisation du logiciel (2h45)

  • Section « Mon labo » et paramètres personnels
    • Gestion des paramètres personnels et notifications
    • Création de projets
  • Section « Inventaire »
    • Inventaire :
      • Comment ajouter des composés et des équipements à l’inventaire
      • Comment rechercher des composés et des équipements
      • Comment consulter les résultats de recherche
      • Apprendre les actions possibles avec les résultats de recherche
    • Scanner :
      • Comment utiliser le mode Scan
      • Comment utiliser le mode Multiscan
      • Comment accéder et consulter la page d’aide
    • Système de gestion de Commandes et Réceptions :
      • Comment commander un composé ou un équipement
      • Comment compléter le formulaire de demande de commande
      • Comment utiliser la section « Mes commandes »
  • Période de question

Module 2. Gestion du logiciel (1h10)

Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées.

  • Section « Mon labo »
    • Comment ajouter, modifier et désactiver des utilisateurs
    • Comment créer, modifier et supprimer des projets
      • Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte
  • Section « Inventaire »
    • Comment modifier ou supprimer un composé ou un équipement
    • Comment imprimer une étiquette « GHS »
    • Comment utiliser la fonctionnalité « Rapport »
    • Comment gérer et indiquer l’achat et la réception des demandes de commandes
    • Comment créer, gérer, modifier et supprimer des emplacements
    • Comment gérer les paramètres du groupe
      • Comment gérer les paramètres généraux
      • Comment gérer les paramètres du code-barre
    • Comment obtenir une copie de l’inventaire
  • Utilisation du rôle « Institution Admin »
  • Période de questions

 

Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français
Formation FindMolecule : Inventaire et ELN
Formation FindMolecule : Inventaire et ELN
  • Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche.
  • Comprendre et maîtriser l’environnement FindMolecule.
    • Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises
    • Utiliser « Inventaire » et « Cahier de laboratoire »
    • Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire »

Présentation (5 min)

  • Présentation du formateur
  • Résumé du programme de la formation
  • Prise de présence

Module 1. Utilisation du logiciel (2h55)

  • Section « Mon labo » et paramètres personnel
    • Gestion des paramètres personnels et notifications ;
    • Création de projets ;
  • Section « Inventaire »
    • Inventaire :
      • Comment ajouter des composés et des équipements à l’inventaire ;
      • Comment rechercher des composés et des équipements ;
      • Comment consulter les résultats de recherche ;
      • Apprendre les actions possibles avec les résultats de recherche
    • Scanner :
      • Comment utiliser le mode Scan ;
      • Comment utiliser le mode Multiscan ;
      • Comment accéder et consulter la page d’aide
    • Système de gestion de Commandes et Réceptions :
      • Comment commander un composé ou un équipement ;
      • Comment compléter le formulaire de demande de commande ;
      • Comment utiliser la section « Mes commandes »
  • Section « Cahier de laboratoire »
    • Le menu de gauche
      • Comment utiliser le menu de gauche
      • Connaître l’information contenue dans ce menu
    • Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages
      • Apprendre à utiliser les différents onglets
      • Comment accéder à l’information qu’ils contiennent
      • Comment gérer les paramètres de l’onglet Réglages
    • Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique)
      • Comment créer une expérience de laboratoire
      • Comment remplir les différentes sections d’une expérience ;
      • Comment compléter une expérience, de la création à la demande de contre-signature ;
      • Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience ;
      • Comment lier deux expériences ;
      • Comment cloner une expérience ;
      • Comment accéder aux expériences de nos collègues ;

Module 2. Gestion du logiciel (2h)

Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées.

  • Section « Mon labo »
    • Comment ajouter, modifier et désactiver des utilisateurs ;
    • Comment créer, modifier et supprimer des projets ;
      • Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte ;
  • Section « Inventaire »
    • Comment modifier ou supprimer un composé ou un équipement ;
    • Comment imprimer une étiquette « GHS » ;
    • Comment utiliser la fonctionnalité « Rapport » ;
    • Comment gérer et indiquer l’achat et la réception des demandes de commandes ;
    • Comment créer, gérer, modifier et supprimer des emplacements ;
    • Comment gérer les paramètres du groupe
      • Comment gérer les paramètres généraux ;
      • Comment gérer les paramètres du code-barre ;
    • Comment obtenir une copie de l’inventaire ;
  • Section « Cahier de laboratoire »
    • Paramètres disponibles
  • Utilisation du rôle « Directeur »
  • Utilisation du rôle « Institution Admin »
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Français
Graphiques scientifiques avec PRISM
Graphiques scientifiques avec PRISM
  • Découvrir l’ensemble des possibilités offertes par PRISM pour obtenir le graphique que l’on souhaite, tracé automatique des courbes d’ajustement compris.

1. Notions de base

  • Présentation des possibilités de PRISM au travers d’exemples permettant aux participants de pointer au formateur les représentations qui les intéressent le plus.
  • Créer un premier graphique pour mieux comprendre les impératifs relatifs aux feuilles de données.
  • La notion de projet (structure d’un fichier PRISM, sections, liens automatiques, les boutons « magiques », etc.).
  • La navigation et la gestion d’un projet PRISM (trouver la bonne feuille de données, renommer les feuilles, geler les feuilles, réordonner les feuilles, fusionner et fractionner des projets).
  • Les feuilles d’information.

2. Les feuilles de données : Concepts essentiels

  • Présentation des huit types de feuilles de données.
  • Column : Test pour les échantillons appariés et non appariés. Identifier les valeurs aberrantes.
  • XY : analyse de corrélation.
  • Grouped : ANOVA bidirectionnelle.
  • Contingency : Chi-carré.
  • Survival : Kaplan-Meier et test du log-rank.
  • Parts of whole : diagramme circulaire.
  • Nested : Nested t-test.
  • Multiple variables : analyse de plusieurs variables simultanément.

3. Graphiques avec PRISM

  • Création et modification des graphiques (graphiques multiples à partir de la même table, modification des propriétés, etc.).
  • Modification des barres et symboles (formats et couleurs des lignes et symboles, changement de l’aspect d’une donnée).
  • Les axes (échelles, limites, ruptures, numérotation, titres, montrer et cacher les graduations). Les axes logarithmiques.
  • La maîtrise des couleurs.
  • Tables encapsulées dans les graphiques.
  • Les légendes.
  • Dispositions sur la page (layouts).

4. Importation et exportation de données

  • Méthodes rapides d’importation de données comme alternative au copier-coller.
  • Exportations aux formats exigés.

5. Analyses et graphiques répétitifs (templates) et remarques finales

Analyse Chimie / Bio Intra-entreprise Distanciel Présentiel Français Anglais
Laby formation initiale : utilisateur – administrateur
Laby formation initiale : utilisateur – administrateur
  • Intérêts et objectifs de la transformation numérique
  • Prendre en main l’utilisation du logiciel LABY
  • Prendre en main l’administration des modules du logiciel LABY
  • Définir les interactions avec un service support
  • Maitriser les droits d’accès
  • Assurer ses back-ups

 Module 1 : Gestion de la recherche et suivi de la qualité – 3h30

  1. Présentation des participants, contexte, objectif et agenda de formation
  2. Module projet et cahier de laboratoire numérique
  3. Etapes clés / Blocs d’activités
  4. Module Gestion Électronique de Documentation
  5. Module Bibliographie
  6. Recherche d’information

 Module 2 : Paramétrage et gestion du laboratoire – 3h30

  1. Module Utilisateurs
  2. Module Tiers
  3. Module Localisation
  4. Module Unités
  5. Module Stocks
  6. Module Préparation de lots
  7. Module Équipements
  8. Module Temps passés

 Module 3 : Administration du logiciel Laby – 3h30

  1. Définition des rôles de(s) l’administrateur(s)
  2. Paramétrages mail et serveur
  3. Module des Droits
  4. Module modèles de notebooks
  5. Module modèles de tableaux de résultats
  6. Module modèles des étiquettes
  7. Backups
  8. Laby Support

Module 4 : Consolidation des acquis – 3h30

Ce module est consacré à travailler sur des exemples apportés par les apprenants.
Ceux-ci présentent et analysent eux-mêmes leurs données, sous la supervision du formateur, à la lumière des acquis.

 

Chimie / Bio Intra-entreprise Présentiel Distanciel Français
Séquençage haut débit et écologie microbienne
Séquençage haut débit et écologie microbienne
  • Comprendre le séquençage génomique à haut débit.
  • Être capable de choisir la technologie adaptée à son projet.
  • Connaître les outils bio-informatiques utilisés.
  • Connaître les analyses statistiques possibles.
  1. Méthodes moléculaires
    • Séquençage HTS.
    • Métagénomique ciblée.
    • Métagénomique globale.
    • Analyses RNA-seq.
    • CRISPR/Cas9.
  2. Applications en écologie microbienne
    • Extraction d’ADN microbien.
    • Analyse bioinformatique des séquences.
    • L’analyse de données : diversité, cluster, réseau, core-microbiome
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français
Communication et rédaction scientifique
Communicating science to a wider audience
Communicating science to a wider audience

Ce stage pour des chercheurs scientifiques et toute personne travaillant dans la communication scientifique de fournir aux stagiaires les moyens et techniques journalistiques, écrits et oraux, pour simplifier leurs messages complexes, en utilisant des métaphores plus faciles à comprendre et en évitant le langage aride des experts.

En résumé, comment formuler les « headlines » dynamiques, comment synthétiser et simplifier ces messages, et vulgariser afin qu’ils puissent être compris par le plus grand nombre.

Journée 1

  1. Définition du concept de « populaire ». La notion du populaire aujourd’hui n’est pas le même que celle d’hier car les médias ont énormément évoluées. Diapos.
  2. Les médias comme vecteur de savoir. Les meilleurs films de science-fiction, livres, etc.
  3. Pourquoi ces films, livres, etc. en particulier ?
  4. Discussion sur ce que les gens trouvent attirant dans les présentations – pourquoi veulent -ils toucher un public plus grand ?
  5. Pourquoi votre travail est-il important ? Qu’est-ce qu’il va changer ? Le cible ? Pourquoi le public pourrait être intéressé ? « Storytelling » – comment construire un narrative – début – milieu – fin. L’importance des « chutes ».
  6. « Highlights » – Quels sont les « highlights » de votre travail. Création de 4/5 phrases dynamiques.
  7. Liste de métaphores – inventer des métaphores.
  8.  Lecture de textes de « Nature » et l’extraction de mots clés ayant de l’impact. Leur sens ? Pouvez-vous les utiliser ?
  9. Les titres – la création de titres qui retient l’attention – règles – mots clés – verbes clés – pensez en termes des mots clés et les verbes clés de votre travail – les verbes créent le dynamisme.
  10. Une analyse des « news highlights » de Nature.
  11. Interviewez vos collègues de stage et rédigez des courts rapports sur leur travail. Inventez des titres courts pour les « highlight reports ».
  12. Les structures des paragraphes.
  13. Choix d’une structure ou une combination des structures pour la rédaction d’un blog à mettre en ligne sur Facebook, par exemple. Exemples de Nature et New Scientist.
  14. Combinez les 6 questions – qui – quoi – quand – comment – où – pourquoi et l’utilisez dans l’article du blog. Trouvez une image.
  15. L’importance des images.
  16. Rédaction d’un texte d’environ 500/600 mots sur votre propre travail. Segmentez-le en paragraphes.
  17. Ecrire la légende de l’image.
  18. Montrez-la à 4 autres stagiaires pour obtenir leurs opinions afin d’améliorer le blog.

Journée 2

  1. La passion dans l’expression orale.
  2. L’idée de base d’une présentation orale en 180 secondes (3MT).
  3. Prononciation – intonation.
  4. Présentation sur comment donner une présentation.
  5. Langage corporel.
  6. La projection de soi – contrôler le trac.
  7. Feuille de minutage – les mots qu’il faut et quand.
  8. Comment condenser une thèse de 180 pages en seulement 2 pages?
  9. Combien de informations pouvez-vous communiquer en 180 secondes – 133 à 180 mots/minute donc ~400 à 540 mots en 3 minutes.
  10. Travail en groupes afin de structurer les présentations. Choix des métaphores – analogies.
  11. Créer 1 diapo PowerPoint pour toute la présentation.
  12. Discussion en groupes sur votre message. Point clés et comment les mettre en avant.Chronométrage et synchronisation.
  13.  Présentation de présentations ayant gagnés des prix.
  14. Chaque stagiaire donne sa présentation au moins deux fois.
Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Anglais
Communication orale en anglais pour conférences scientifiques
Communication orale en anglais pour conférences scientifiques
  • Être capable de parler en anglais avec confiance en soi devant un public scientifique
  • Savoir utiliser son corps (respiration, position, posture, gestes) pour rythmer son discours
  • Savoir se projeter dans l’espace et attirer l’attention des spectateurs en donnant de l’autorité à son discours
    Identifier ses points faibles et forts avec l’aide des autres participants
  • Savoir synthétiser de l’information pour la rendre plus dynamique
  • Savoir utiliser sa présentation comme tremplin pour s’exprimer et non pas comme une béquille
  • Préparer une argumentation pour étayer son discours et répondre aux questions rapidement
  • Être plus spontané en anglais et gérer les questions.

Journée 1

  • Introduction et objectifs du stage
  • Parler d’un sujet avec conviction – communiquer l’intérêt
  • Exercices de prononciation – intonation
  • Présentation des qualités requises pour une bonne communication orale par l’animateur
  • Pourquoi ce vous voulez dire est important – pour qui ?
  • Exprimer cette importance Le fond du problème – décrire le contexte de votre recherche – 3/4 diapositifs
  • PowerPoint Identification des faiblesses : clarté, cadence du discours trop lente/rapide, …
  • L’utilisation du corps (langage corporel) pour aider le discours Séance de débat sur des sujets controversés – réagir aux propos de l’autre – mettre en avant ses propres idées
  • Expliquer sa méthode sur le tableau – mettre en phase ce qu’on dit avec ce qu’on fait avec son corps (dessiner – écrire – regarder)
  • Répondre aux questions

Journée 2

  • Exercices de prononciation – intonation
  • Présentation par l’animateur
  • L’importance de l’autorité dans la prise de parole en public
  • Comment synthétiser son discours
  • Présenter ses résultats – comparaisons – contrastes – causes et effets
  • Utilisation de courbes, histogrammes, … mise en exergue des points importants
  • Identification des difficultés de communication non résolus – comment les contourner
  • Les perspectives de sa recherche – spéculer sur les suites
  • Nouvelle présentation par l’animateur
  • Communication finale – chaque stagiaire dois parler pour au moins 15 minutes sans arrêter sur leur travail avec un support PowerPoint, puis répondre aux questions des autres participants et le formateur.

Le temps prévu pour chaque activité dépend de l’avancement de chaque participant.

 

Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Anglais
Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications
Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications
  • Découvrer le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative et bénéficier du potentiel des outils d’IAG
  • Utiliser des techniques de prompting avancées pour répondre à des besoins métier.
  • Classifier les outils d’intelligence artificielle générative selon les médias mis en œuvre (text-to-text, text-to-image, etc.), et sélectionner le bon outil pour un cas d’usage précis.
  • Produire des activités pédagogiques telles que des notes de cours, des guides d’étude, ou des résumés de chapitres pour aider les étudiants dans leur apprentissage.
  • Concevoir des examens et des quiz à partir du contenu de formation développé pour les étudiants et gagner du temps dans la préparation de vos cours
  • Générer des scénarios ou cas d’étude pour des travaux de groupe, basés sur des sujets d’actualité ou des avancées scientifiques pour décupler les possibilités d’animations de cours (contenu, ateliers de groupes, etc.)
  • Adapter son enseignement et préparer ses apprenants à la révolution de l’IAG

Partie 1 : les bases de l’IA et du prompt engineering (1h30)

– Décrire le principe de fonctionnement général d’une intelligence artificielle générative

– Découvrir le prompt engineering

 

Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques)

– Décrire les principaux modèles de prompt engineering

– Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement

– Créer plusieurs ressources : résumé, articles, traductions, présentations, etc.

 

Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques)

– Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter

– Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format

– Échanger autour des questions qui posent questions : éthique, droits d’auteur, sécurité…

Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français
Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications
Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications
  • Décrire le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative.
  • Utiliser des techniques de prompting avancées pour répondre à des besoins métier.
  • Synthétiser des articles et contenus scientifiques en produisant des résumés concis qui mettent en évidence les points clés et les conclusions principales.
  • Améliorer sa veille technologique en configurant, personnalisant et automatisant des outils d’intelligence artificielle générative pour surveiller et résumer les dernières recherches publiées dans des domaines spécifiques.
  • Identifier les points clés d’un domaine scientifique spécifique et détecter les sujets de recherche manquants nécessaires pour compléter un modèle théorique existant.
  • Traduire des articles

Partie 1 : les bases de l’IA et du prompt engineering (1h30)

– Décrire le principe de fonctionnement général d’une intelligence artificielle générative

– Découvrir le prompt engineering

 

Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques)

– Décrire les principaux modèles de prompt engineering

– Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement

– Créer plusieurs ressources : résumé, articles, traductions, présentations, etc.

 

Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques)

– Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter

– Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format

– Échanger autour des enjeux & bouleversements de l’IAG pour le secteur : éthique, droits d’auteur, sécurité…

Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français
Mettre en place sa veille scientifique et technologique dans un projet innovant
Mettre en place sa veille scientifique et technologique dans un projet innovant
  • Réussir la mise en œuvre de la veille scientifique, technique et technologique d’un projet.
  • Connaître le cycle de veille et organiser son plan de veille.
  • Organiser les différentes étapes de la veille concrètement.
  1. Se familiariser avec les bases du cycle global de la veille scientifique, présentation théorique et présentation des projets individuels (30 min)
  2. Identifier les étapes clés du processus de veille scientifique, présentation et exercice pratique (30 min)
  3. Méthodologie de recherche d’informations scientifiques, techniques et technologiques : exposé théorique et exercice de mise en pratique (30 min)
  4. Bien définir ses besoins, son périmètre et ses axes de recherche exercice pratique : exercice de mise en pratique (1h30)
  5. Organiser une veille ciblée cas concret (30 min)
  6. Bien choisir ses sources : les différents moteurs de recherche scientifiques, les bases de données et la littérature grise exercice , fiche technique, fiches conseil (1h30)
  7. Choisir et analyser les informations importantes au projet présentation théorique (30 min)
  8. Evaluer et gérer les informations (15 min)
  9. Diffuser sa veille : présentation (30 min)
  10. Point sur les outils de veille : présentation (15 min)
  11. Ajuster et mener des actions correctives sur le projet : théorie (30 min)
Communication et rédaction scientifique Publication Intra-entreprise Inter-entreprise Présentiel Distanciel Français
Rédaction d’articles scientifiques en anglais
Rédaction d’articles scientifiques en anglais
  • Comprendre et savoir utiliser l’approche anglo-saxonne dans la rédaction d’articles scientifiques
  • Mettre en pratique les enseignements sur le champ sur son propre travail
  • Comprendre l’importance du lecteur et donc de la clarté et précision de son message
  • Comprendre qu’il faut penser dans la langue dans lequel on écrit pour le rendre plus compréhensible
  • Savoir mieux utiliser la grammaire et la syntaxe dans ses écrits pour les rendre plus clairs
  • Maîtriser la structure de l’article et donc mieux structurer son discours
  • Avoir une trame et une boite à outils réutilisable pour d’autres articles

Jour 1

  • Présentation du stage et définition des objectifs de chaque stagiaire
  • L’utilisation du résumé pour décrire la méthode suivie pour le stage
  • Comment penser en anglais pour écrire directement sans passer par le français
    Chaque phrase doit remplir une fonction précise
  • La logique de l’enchainement des pensées
  • Exercices d’analyse et simplification de textes complexes en anglais
  • Exercices sur les prépositions et « phrasal verbes »
  • Exercice avec un « abstract » réel de la revue « Nature »
  • Les stagiaires rédigent leurs propres abstracts
  • Aide et correction par le formateur
  • L’introduction, ses composants, ses objectifs et sa structure : contexte de la recherche, références, méthode utilisée, …
  • Les conjugaisons nécessaires – exercices. L’importance de la chronologie pour les références
    La mise en avant de l’objectif de l’article dans l’introduction : l’importance de l’étude
  • Les stagiaires choisissent et rédigent au choix une des quatre parties de l’introduction
  • Aide et correction par le formateur

Jour 2

  • Identification des erreurs typiques d’anglais faites par des chercheurs dans des textes scientifiques
  • La syntaxe anglaise, les différences entre la syntaxe anglaise et française
  • Différences de conception culturelle
  • Analyse et repérage des erreurs dans des textes écrits par d’autres chercheurs
  • Exercices
  • La méthode : l’importance des conjugaisons et le passif
  • Exemples des méthodes déjà publiées
  • Chaque stagiaire rédige sa méthode
  • Les stagiaires lisent les méthodes de leurs collègues en essayant d’identifier leurs erreurs éventuelles, syntaxe difficile à comprendre, …

Les résultats

  • L’importance des comparaisons, oppositions et causes et effets et le langage utilisé
  • Exemples des résultats dans des publications
  • Grammaire et exercices
  • Vocabulaire pour décrire l’évolution des phénomènes observés
  • Le langage des figures, illustrations, graphiques, … comment les présenter et les décrire
  • Choix des figures par les stagiaires
  • Rédaction des descriptions

Jour 3

Reprise des résultats. Aide et correction par le formateur.

La discussion

  • L’utilisation de l’introduction comme gabarit pour la discussion pour faciliter sa rédaction
  • Les réponses attendues dans la discussion par rapport aux questions posées dans l’introduction
  • Les adverbes d’opposition, de débat, de prise en compte
  • L’ajout des informations supplémentaires
  • Discussion entre les stagiaires afin qu’ils puissent mieux identifier les points difficiles dans leurs propres discussions et clarifier leurs idées
  • Rédaction d’une partie de la discussion au choix
  • Aide et correction par le formateur

La conclusion et perspectives

  • La spéculation, verbes modaux, structure, synthèse
  • Rédaction de la conclusion
  • Lettres à l’éditeur et aux « reviewers
  • Exercice – test ludique
Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Distanciel Anglais
Data Science
Environnement de développement en Data Science
Environnement de développement en Data Science
  • Comprendre l’écosystème de la data science
  • Connaître les outils afférents à la réalisation d’un projet en data science.

JOUR 1

  • L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL
  • Le contrôle de révision et travail collaboratif avec Git
  • La méthodologie de gestion d’un projet en data science
  • Les principes de base du génie logiciel et bonnes pratiques

JOUR 2

  • Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data)
  • L’architecture distribuées et base de données, map-reduce, big data, Apache Spark
Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Initiation au langage de R
Initiation au langage de R
  • Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage

R1 : Premiers pas dans R 

  • Introduction
  • Saisir une commande dans la console
  • Ecrire un script propre, structuré et commenté
  • Créer, modifier, visualiser et effacer un objet
  • Manipuler les différents types de données et structures des données
  • Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions

R2 : Importer, contrôler et exporter des tableaux de données

  • Afficher et modifier le répertoire de travail
  • Importer des données contenues dans un fichier .csv
  • Contrôler les types de ses variables et les modifier si besoin
  • Les variables qualitatives : les facteurs
  • Contrôler les données manquantes
  • Exporter un tableau de données dans un fichier .csv

R3 : Valorisation numérique des données

  • Manipuler son jeu de données (sélection de variables, de lignes …)
  • Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information
  • Statistiques descriptives, comptages, tableau croisé
  • Agrégation de données (statistiques par groupe d’observations)

R4 : Valorisation graphique des données

  • Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire
  • Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …)
  • Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …)
  • Enregistrer un graphique
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
L'Analyse de données avec R
L'Analyse de données avec R

Savoir manipuler les données et en tirer de l’information avec R.

Statistiques introductives

  • Statistique univariée
  • Statistique bivariée
  • Introduction à ggplot2, la grammaire des graphiques
  • Graphiques univariés et bivariés avec ggplot2
  • Données pondérées

Statistiques intermédiaires

  • Intervalles de confiance
  • Comparaisons
  • Définir un plan d’échantillonnage complexe
  • Régression linéaire
  • Régression logistiques binaire, multinomiale et ordinale
  • Analyse en correspondances multiples
  • Classification ascendante hiérarchique

Statistiques avancées

  • Effets d’interaction dans un modèle
  • Multi-colinéarité dans la régression
  • Analyse de survie
  • Analyse de séquences
  • Analyse de réseaux
  • Analyse spatiale
Data Science Open Source Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Blended Distanciel Français Anglais
Machine Learning Avancé
Machine Learning Avancé
  • Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif.
  • À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée.

JOUR 1

  • L’exploration avancées des données :
    • DBSCAN, algorithme de clustering de données non supervisées
    • Manifold Learning

JOUR 2

  • Gaussian Mixture Modelling (GMM)
  • Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS)
  • Support Vector Machine (SVM)

JOUR 3

  • Random Forest et Gradient Boosting Machines
  • L’estimation et la validation croisée par Bootstraping
  • Le filtrage collaboratif et le système de recommandation

 

Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Anglais Français
Machine Learning bases
Machine Learning bases
  • Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining.
  • À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs.

 JOUR 1

  • Introduction aux méthodes non supervisées :
    • L’analyse en composantes principales (PCA)
    • La classification automatique (k-means),
    • Les règles d’association (apriori, eclat)
  • Introduction aux méthodes supervisées :
    • Les modèles de régression linéaire et logistique avec régularisation (ridge régression),
    • Les arbres de décision (régression et classification)

JOUR 2

  • Les méthodes standards pour mettre en œuvre des modèles prédictifs :
    • Feature engineering : apprendre à réduire la complexité d’un problème,
    • Sélection de variables,
    • Validation croisée,
    • Calibration d’un modèle prédictif
    • Text Mining et web scraping
Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Anglais Français
Outils avancés - Python
Outils avancés - Python
  • Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly

JOUR 1 

  • Les traitements avancés des données :
    • La librairie numpy :
      • les fonctions avancées (views, slices)
      • l’interface avec scipy
    • La librairie pandas :
      • L’importation de sources de données externes,
      • L’agrégation de données,
      • Le reshaping,
      • L’indexation,
      • La fusion de sources de données
    • La librairie statmodels :
      • La régression simple et multiple,
      • Les tests des coefficients de régression,
      • Le diagnostic du modèle,
      • La prédiction ponctuelle et par intervalle
    • Le traitement des chaînes de caractères, regex
    • Le traitement des dates et gestion des séries chronologiques

JOUR 2

  • Les générateurs, itertools, lazy evaluation
  • L’interface base de données (SQL, NoSQL)
  • Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap)

 

Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Français Anglais
Outils avancés - R
Outils avancés - R
  • Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly.
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a

JOUR 1

  • L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven}
  • Les outils pour optimiser les traitements de données, {data.table} et {dplyr} :
    • La manipulation avancée des data frames,
    • L’aggrégation de données,
    • Le reshaping,
    • L’indexation,
    • La fusion de sources de données
  • La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} :
    • La régression simple et multiple,
    • Les tests des coefficients de régression,
    • Le diagnostic du modèle,
    • La prédiction ponctuelle et par intervalle

JOUR 2

  • Le traitement des chaînes de caractères, regex
  • Le traitement des dates et gestion des séries chronologiques
  • L’approche fonctionnelle et lazy evaluation
  •  L’interface base de données (SQL, NoSQL)
  • Les fonctionnalités graphiques avancées avec le package {ggplot2} :
    • Les graphiques en trellis,
    • Les distributions statistiques,
    • Représentation de données avec le heatmap
  • Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly}
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - Python
Outils de base - Python
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib.

JOUR 1

  • L’environnement de travail : Python 2 et 3.x,
  • La présentation des différentes consoles et le débogage en Python :
    • Anaconda,
    • Jupyter,
    • Spyder
  • Les types de données : listes, dictionnaires
  • Les structures de contrôle
  • Les fonctions, méthodes et packages

JOUR 2

  • La préparation et le nettoyage des données :
    • numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire)
    • scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base)
    • Les distributions de probabilité et statistiques univariées simples
  • Fonctions graphiques de base (scatterplot, box plot, histogrammes)
  • L’écriture de scripts simples

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - R
Outils de base - R
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail :
    • Présentation de R 3.x
    • Présentation de RStudio
  • Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples
  • Les structures de contrôle de base de R
  • Les fonctions et les packages importants pour la manipulation de données

JOUR 2

  • Les fonctionnalités de base :
    • Les fonctions numériques simples,
    • Les générateurs de nombre aléatoire
  • Les distributions de probabilité et statistiques univariées
  • Les fonctions scientifiques {stats} et les tests statistiques de base
    • La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram)
  • L’écriture de scripts simples de programmation avec R

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Séries temporelles avec R
Séries temporelles avec R
  • Savoir traiter les séries temporelles avec R

Introduction

  • Tendances et composantes saisonnières
  • Indices descriptifs d’une série temporelle

Lissages exponentiels

  • Lissage simple
  • Lissage double

Estimation et élimination de la tendance et de la saisonnalité

  • Bruit blanc
  • Processus stationnaire
  • Estimation paramétrique de la tendance
  • Estimation non paramétrique
  • Elimination de la tendance et de la saisonnalité

Modélisation des séries stationnaires

  • Auto-corrélation partielle
  • Les processus auto-régressifs
  • Les processus en moyenne mobile
  • Les processus mixtes ARMA
  • Tableau des propriétés
  • Estimation et choix de modèle
  • Processus ARIMA et SARIMA
Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais
Économétrie / Finance
Analyse avancée des séries temporelles avec EViews
Analyse avancée des séries temporelles avec EViews
  • Cette formation avancée d’une journée est construite de manière à couvrir les aspects fondamentaux de l’analyse des séries temporelles avec EViews, en se concentrant sur les modèles univariés et multivariés. Il combine des rappels des concepts théoriques avec des exercices pratiques mis en oeuvre avec EViews pour améliorer les compétences des participants en matière de modélisation et de prévisions avancées des séries temporelles.

Le programme peut être adapté sur deux jours dans le cas où les participants souhaitent renforcer leurs compétences dans le domaine des méthodes d’analyse des séries temporelles. Il peut être également être ajusté en fonction des compétences et des besoins des participants et du rythme souhaité d’apprentissage.

Session 1 : Rappel des notions de base sur les séries temporelles et mise en œuvre avec EViews (1h30)

1. Introduction à l’analyse des séries temporelles (30mn)
a. Définition et importance des séries temporelles
b. Application de l’analyse des séries temporelles
2. Interface et configuration EViews (30mn)
a. Revue de l’interface
b. Mise en place d’un projet d’analyse des séries temporelles
c. Chargement et organisation des données
3. Exploration préalable des données (30mn)
a. Statistiques descriptives
b. Exploration graphique
c. Identifier les tendances et les modèles

Session 2 : Analyse de séries temporelles univariées (1h30)

1. Stationnarité et différenciation (30mn)
a. Comprendre la notion de stationnarité
b. Différencier pour atteindre la stationnarité
c. Mise en œuvre dans EViews
2. Modèles ARIMA (1h)
a. Introduction aux modèles ARIMA
b. Identification des paramètres
c. Mise en œuvre dans EViews : construction et interprétation

Session 3 : Analyse de séries temporelles multivariées (2h)

1. Les modèles VAR (1h)
a. Introduction
b. Estimation avec EViews
c. Les fonctions de réponse impulsionnelle : mise en œuvre et lecture des résultats
2. Modèles de cointégration et à correction d’erreurs (ECM) (1h)
a. Comprendre la notion de cointégration
b. Mise en œuvre et interprétation avec EViews

Session 4 : Prévision et évaluation de modèles (2h)

1. Prévision de séries temporelles (1h)
a. Présentation des méthodes de prévision
b. Mise en œuvre avec EViews
c. Évaluation de la précision des prévisions
2. Évaluations et diagnostic du modèle (30mn)
a. Tests de diagnostics
b. Interprétation des résultats et examen des résidus du modèle
c. Des modèles affinés pour de meilleures prévisions : combinaison de méthodes
3. Exercice pratique (30mn)

Économétrie / Finance Statistiques théoriques et appliquées Coaching Intra-entreprise Présentiel Distanciel Français
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
  • Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations.

Stata Deb1 : A la rencontre du logiciel 

  • Présentation de l’environnement du logiciel
  • Comment paramétrer une session Stata pour être efficace
  • La syntaxe générale d’une commande de Stata
  • Savoir utiliser l’aide pour devenir autonome
  • Exemple commenté d’une session Stata pour en appréhender les possibilités
  • Importer des données, les décrire et les visualiser : une première approche
  • Un premier Exercice

Stata Deb2 : Travailler ses données 

  • Exploration d’un fichier de données : le conditionnel if, by et in
  • Manipuler des variables : création, recodage, labels et plein d’autres astuces
  • Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées
  • Un exercice pour se tester

Stata Deb3 : Statistiques Descriptives, Tables et Graphiques 

  • Statistiques descriptives
  • Tables statistiques synthétiques
  • Analyse univariée
  • Une introduction à l’analyse de la variance
  • Les graphiques avec Stata
  • Un exercice synthétique

Stata Deb4 : Une introduction à la régression

  • Régression linéaire : estimation, post-estimation, diagnostics et tests
  • Régression logistique : estimation, post-estimation, diagnostics et tests
  • Découverte de la programmation : les boucles
  • Exercice synthétique (suite)

 

Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Distanciel Français Anglais
Introduction à EViews
Introduction à EViews
  • Ce programme sur deux jours fournit une introduction à EViews, couvrant les fonctionnalités essentielles et les applications pratiques pour l’analyse et la prévision des données.
  • Les participants doivent repartir avec une maîtrise du logiciel et la capacité de l’appliquer à leur travail.
  • Des ajustements peuvent être proposés en fonction des connaissances préalables des participants et de leurs besoins spécifiques.

Session 1 : Introduction à EViews et à son environnement (3h30)

1. Introduction et Aperçu
a. Présentation du formateur et des participants
b. Bref aperçu des objectifs de la formation

2. Premiers pas avec EViews
a. Présentation détaillée de l’interface
b. Options de navigation et de personnalisation de base

3. Travailler avec des workfiles
a. Création, ouverture et sauvegarde
b. Comprendre les différents types de workfiles
c. Options d’importation et d’exportation des données

4. Gestion des données dans EViews
a. Exploration et nettoyage des bases de données
b. Transformation des variables
c. Gestion des données manquantes
5. Exercices pratiques

Session 2 : Notions de base sur la manipulation des données et des séries chronologiques (3h30)

1. Statistiques descriptives
a. Calcul des statistiques de base
b. Représentation graphique des données
c. Techniques d’exploration des données

2. Analyse des séries chronologiques
a. Comprendre la nature des séries chronologiques
b. Représentations graphiques spécifiques
c. Analyses de base des séries chronologiques

3. La régression : premiers pas avec Eviews
a. Introduction à l’analyse de régression
b. Mise en œuvre et interprétation des résultats
4. Exercices pratiques

Session 3 : Les méthodes d’analyse les plus usuelles (3h30)

1. La régression : pour aller plus loin avec EViews
a. Mettre en œuvre plusieurs régressions
b. Tests de diagnostics

2. Les méthodes de prévision
a. Techniques de prévision des séries chronologiques
b. Mise en œuvre de modèles de prévision
c. Évaluation de la précision des prévisions

Session 4 : Présentation des données, rapports et synthèse (3h30)

1. Présentation des données et graphiques
a. Création et personnalisation de tableaux et de graphiques
b. Exportation de résultats vers d’autres formats

2. Générer des rapports dans EViews
a. Présentation des fonctionnalités de création de rapports
b. Création d’un rapport de base

3. Études de cas et exercices pratiques
a. Application d’EViews à une étude de cas réelle
b. Présentation des résultats par les participants

4. Synthèse
a. Récapitulatif et concepts clés
b. Bonnes pratiques et ressources supplémentaires
c. Commentaires des participants et remarques finales

Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
  • Traiter et Analyser des séries temporelles avec Stata.

Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles

  • Traitement des variables de date et opérateurs de séries temporelles
  • Les graphiques spécifiques pour les séries temporelles
  • Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire
  • Un exercice pratique

Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques

  • La régression linéaire à partir de séries temporelles
  • La modélisation ARIMA
  • La prévision
  • Exercice synthétique
Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Anglais
Ingénierie et développement
Environnement de développement en Data Science
Environnement de développement en Data Science
  • Comprendre l’écosystème de la data science
  • Connaître les outils afférents à la réalisation d’un projet en data science.

JOUR 1

  • L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL
  • Le contrôle de révision et travail collaboratif avec Git
  • La méthodologie de gestion d’un projet en data science
  • Les principes de base du génie logiciel et bonnes pratiques

JOUR 2

  • Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data)
  • L’architecture distribuées et base de données, map-reduce, big data, Apache Spark
Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Origin : Analyse de pics
Origin : Analyse de pics
  • Détection et suppression de ligne de base
  • Détection de pics
  • Déconvolution de pics
  • Déconvolution en masse à l’aide de thèmes de calculs

1. Présentation des différents outils relatifs à l’analyse de pic

2. Traitement de la ligne de base

3. Détection de pics

4. Intégration de pics

5. Déconvolution de pics

6. Déconvolution en masse à l’aide de thèmes de calculs

Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais
Origin : Batch processing
Origin : Batch processing
  • Réaliser des filtres d’import
  • Automatiser le traitement des données
  • Réaliser des rapports personnalisés et des modèles d’analyse
  • Générer des tables de synthèse d’analyse

1. Filtres d’import

2. Enchainement d’opérations et recalcul automatique

3. Rapports personnalisés

4. Traitement ne masse par drag and drop

5. Traitement en masse avec l’outil Batch Processing

6. Optimisation des calculs avec l’App Distributed Batch Processing

7. Tables de synthèse

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Origin : Fonctions de base
Origin : Fonctions de base
  • Importer des données de formats variés
  • Réaliser des graphiques et les personnaliser (styles, templates, thèmes)
  • Traiter les données et automatiser les calculs
  • Réaliser des ajustements de données, créer ses propres fonctions d’ajustement
  • Détecter et déconvoluer des pics

1. Graphiques

  • Graphiques de base
  • Tracés en groupe
  • Personnalisation des courbes et des axes
  • Graphiques statistiques
  • Axes spéciaux (radar, coordonnées polaires)
  • Graphiques de surface et 3D
  • Batch plotting

2. Importation de données

  • Importation de fichiers ASCII, CSV, Excel
  • Personnalisation, import en masse

3. Calculs et manipulation de données

  • Calculs entre colonnes
  • Extraction et réorganisation de données
  • Masquage et filtrage de données
  • Statistiques descriptives
  • Intégration, dérivation, inter/extrapolation
  • Traitement du signal
  • Sauvegarde et réutilisation de thèmes de calculs

4. Ajustement

  • Ajustement linéaire, polynomial et non linéaire
  • Création et édition de fonctions d’ajustement
  • Ranking de fonctions d’ajustement

5. Analyse de pics

  • Détection et intégration de pics
  • Déconvolution de pics

6. Traitement en masse

  • Modèles d’analyse, rapports personnalisés
  • Import et traitement en masse

7. Ajout de fonctionnalités avec les Apps

8. Reconstruction de données à partir de fichiers image

Analyse Ingénierie et développement Inter-entreprise Intra-entreprise Présentiel Français Anglais
Origin : Graphiques avancés
Origin : Graphiques avancés
  • Maitrise des possibilités de personnalisation des graphiques et stratégies de réalisation de graphiques complexes

1. Tirer le meilleur parti des templates, clones et thèmes

2. Stratégies de réalisation de graphiques complexes

3. Travaux à partir de cas concrets des participants

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Origin : Programmation
Origin : Programmation
  • Maîtriser des fonctions de base de la programmation: accès aux différents objets d’Origin, variables, fonctions, boites de dialogue.

1. Environnement

  • Script Window, Command Window et Code Builder
  • Déclenchement de scripts à partir de boutons de raccourci
  • Déclenchement de scripts par des événements

2. Types de variables

3. Accès aux objets Origin

  • Accès aux données issues de workseet
  • Graphiques et personnalisation
  • Objets graphique

4. Opérateurs et calculs

5. Structures des scripts

6. Fonctions

7. Boites de dialogues

Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Coaching Conseil Présentiel Distanciel Français
Management du changement
Innover avec le design thinking
Innover avec le design thinking

Comprendre le processus de Design Thinking afin de l’utiliser pour innover et résoudre des problèmes complexes.

1. Discover : à la découverte du challenge à relever
2. Define : définir avec précision le problème à résoudre
3. Develop : imaginer la solution la plus pertinente
4. Deliver : construire la solution et recueillir des feedbacks selon une démarche itérative

Management du changement Process et métiers des laboratoires Coaching Intra-entreprise Distanciel Présentiel Français
Management Agile des projets scientifiques
Management Agile des projets scientifiques
  • Objectifs pédagogiques: Aborder l’état d’esprit et les concepts de l’Agilité
  1. Pourquoi passer à l’Agilité ?
  2. Introduction à l’Agilité
  3. Le vocabulaire de l’Agilité
  4. Les principes de Scrum
Management du changement Process et métiers des laboratoires Coaching Intra-entreprise Distanciel Présentiel Français
Open Source
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais
Environnement de développement en Data Science
Environnement de développement en Data Science
  • Comprendre l’écosystème de la data science
  • Connaître les outils afférents à la réalisation d’un projet en data science.

JOUR 1

  • L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL
  • Le contrôle de révision et travail collaboratif avec Git
  • La méthodologie de gestion d’un projet en data science
  • Les principes de base du génie logiciel et bonnes pratiques

JOUR 2

  • Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data)
  • L’architecture distribuées et base de données, map-reduce, big data, Apache Spark
Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais
Initiation au langage de R
Initiation au langage de R
  • Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage

R1 : Premiers pas dans R 

  • Introduction
  • Saisir une commande dans la console
  • Ecrire un script propre, structuré et commenté
  • Créer, modifier, visualiser et effacer un objet
  • Manipuler les différents types de données et structures des données
  • Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions

R2 : Importer, contrôler et exporter des tableaux de données

  • Afficher et modifier le répertoire de travail
  • Importer des données contenues dans un fichier .csv
  • Contrôler les types de ses variables et les modifier si besoin
  • Les variables qualitatives : les facteurs
  • Contrôler les données manquantes
  • Exporter un tableau de données dans un fichier .csv

R3 : Valorisation numérique des données

  • Manipuler son jeu de données (sélection de variables, de lignes …)
  • Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information
  • Statistiques descriptives, comptages, tableau croisé
  • Agrégation de données (statistiques par groupe d’observations)

R4 : Valorisation graphique des données

  • Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire
  • Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …)
  • Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …)
  • Enregistrer un graphique
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications
Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications
  • Découvrer le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative et bénéficier du potentiel des outils d’IAG
  • Utiliser des techniques de prompting avancées pour répondre à des besoins métier.
  • Classifier les outils d’intelligence artificielle générative selon les médias mis en œuvre (text-to-text, text-to-image, etc.), et sélectionner le bon outil pour un cas d’usage précis.
  • Produire des activités pédagogiques telles que des notes de cours, des guides d’étude, ou des résumés de chapitres pour aider les étudiants dans leur apprentissage.
  • Concevoir des examens et des quiz à partir du contenu de formation développé pour les étudiants et gagner du temps dans la préparation de vos cours
  • Générer des scénarios ou cas d’étude pour des travaux de groupe, basés sur des sujets d’actualité ou des avancées scientifiques pour décupler les possibilités d’animations de cours (contenu, ateliers de groupes, etc.)
  • Adapter son enseignement et préparer ses apprenants à la révolution de l’IAG

Partie 1 : les bases de l’IA et du prompt engineering (1h30)

– Décrire le principe de fonctionnement général d’une intelligence artificielle générative

– Découvrir le prompt engineering

 

Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques)

– Décrire les principaux modèles de prompt engineering

– Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement

– Créer plusieurs ressources : résumé, articles, traductions, présentations, etc.

 

Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques)

– Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter

– Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format

– Échanger autour des questions qui posent questions : éthique, droits d’auteur, sécurité…

Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français
Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications
Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications
  • Décrire le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative.
  • Utiliser des techniques de prompting avancées pour répondre à des besoins métier.
  • Synthétiser des articles et contenus scientifiques en produisant des résumés concis qui mettent en évidence les points clés et les conclusions principales.
  • Améliorer sa veille technologique en configurant, personnalisant et automatisant des outils d’intelligence artificielle générative pour surveiller et résumer les dernières recherches publiées dans des domaines spécifiques.
  • Identifier les points clés d’un domaine scientifique spécifique et détecter les sujets de recherche manquants nécessaires pour compléter un modèle théorique existant.
  • Traduire des articles

Partie 1 : les bases de l’IA et du prompt engineering (1h30)

– Décrire le principe de fonctionnement général d’une intelligence artificielle générative

– Découvrir le prompt engineering

 

Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques)

– Décrire les principaux modèles de prompt engineering

– Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement

– Créer plusieurs ressources : résumé, articles, traductions, présentations, etc.

 

Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques)

– Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter

– Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format

– Échanger autour des enjeux & bouleversements de l’IAG pour le secteur : éthique, droits d’auteur, sécurité…

Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français
L'Analyse de données avec R
L'Analyse de données avec R

Savoir manipuler les données et en tirer de l’information avec R.

Statistiques introductives

  • Statistique univariée
  • Statistique bivariée
  • Introduction à ggplot2, la grammaire des graphiques
  • Graphiques univariés et bivariés avec ggplot2
  • Données pondérées

Statistiques intermédiaires

  • Intervalles de confiance
  • Comparaisons
  • Définir un plan d’échantillonnage complexe
  • Régression linéaire
  • Régression logistiques binaire, multinomiale et ordinale
  • Analyse en correspondances multiples
  • Classification ascendante hiérarchique

Statistiques avancées

  • Effets d’interaction dans un modèle
  • Multi-colinéarité dans la régression
  • Analyse de survie
  • Analyse de séquences
  • Analyse de réseaux
  • Analyse spatiale
Data Science Open Source Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Blended Distanciel Français Anglais
Machine Learning Avancé
Machine Learning Avancé
  • Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif.
  • À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée.

JOUR 1

  • L’exploration avancées des données :
    • DBSCAN, algorithme de clustering de données non supervisées
    • Manifold Learning

JOUR 2

  • Gaussian Mixture Modelling (GMM)
  • Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS)
  • Support Vector Machine (SVM)

JOUR 3

  • Random Forest et Gradient Boosting Machines
  • L’estimation et la validation croisée par Bootstraping
  • Le filtrage collaboratif et le système de recommandation

 

Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Anglais Français
Machine Learning bases
Machine Learning bases
  • Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining.
  • À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs.

 JOUR 1

  • Introduction aux méthodes non supervisées :
    • L’analyse en composantes principales (PCA)
    • La classification automatique (k-means),
    • Les règles d’association (apriori, eclat)
  • Introduction aux méthodes supervisées :
    • Les modèles de régression linéaire et logistique avec régularisation (ridge régression),
    • Les arbres de décision (régression et classification)

JOUR 2

  • Les méthodes standards pour mettre en œuvre des modèles prédictifs :
    • Feature engineering : apprendre à réduire la complexité d’un problème,
    • Sélection de variables,
    • Validation croisée,
    • Calibration d’un modèle prédictif
    • Text Mining et web scraping
Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Anglais Français
Outils avancés - Python
Outils avancés - Python
  • Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly

JOUR 1 

  • Les traitements avancés des données :
    • La librairie numpy :
      • les fonctions avancées (views, slices)
      • l’interface avec scipy
    • La librairie pandas :
      • L’importation de sources de données externes,
      • L’agrégation de données,
      • Le reshaping,
      • L’indexation,
      • La fusion de sources de données
    • La librairie statmodels :
      • La régression simple et multiple,
      • Les tests des coefficients de régression,
      • Le diagnostic du modèle,
      • La prédiction ponctuelle et par intervalle
    • Le traitement des chaînes de caractères, regex
    • Le traitement des dates et gestion des séries chronologiques

JOUR 2

  • Les générateurs, itertools, lazy evaluation
  • L’interface base de données (SQL, NoSQL)
  • Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap)

 

Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Français Anglais
Outils avancés - R
Outils avancés - R
  • Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly.
  • À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a

JOUR 1

  • L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven}
  • Les outils pour optimiser les traitements de données, {data.table} et {dplyr} :
    • La manipulation avancée des data frames,
    • L’aggrégation de données,
    • Le reshaping,
    • L’indexation,
    • La fusion de sources de données
  • La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} :
    • La régression simple et multiple,
    • Les tests des coefficients de régression,
    • Le diagnostic du modèle,
    • La prédiction ponctuelle et par intervalle

JOUR 2

  • Le traitement des chaînes de caractères, regex
  • Le traitement des dates et gestion des séries chronologiques
  • L’approche fonctionnelle et lazy evaluation
  •  L’interface base de données (SQL, NoSQL)
  • Les fonctionnalités graphiques avancées avec le package {ggplot2} :
    • Les graphiques en trellis,
    • Les distributions statistiques,
    • Représentation de données avec le heatmap
  • Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly}
Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - Python
Outils de base - Python
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib.

JOUR 1

  • L’environnement de travail : Python 2 et 3.x,
  • La présentation des différentes consoles et le débogage en Python :
    • Anaconda,
    • Jupyter,
    • Spyder
  • Les types de données : listes, dictionnaires
  • Les structures de contrôle
  • Les fonctions, méthodes et packages

JOUR 2

  • La préparation et le nettoyage des données :
    • numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire)
    • scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base)
    • Les distributions de probabilité et statistiques univariées simples
  • Fonctions graphiques de base (scatterplot, box plot, histogrammes)
  • L’écriture de scripts simples

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Outils de base - R
Outils de base - R
  • Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}.
  • À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base.

JOUR 1

  • L’environnement de travail :
    • Présentation de R 3.x
    • Présentation de RStudio
  • Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples
  • Les structures de contrôle de base de R
  • Les fonctions et les packages importants pour la manipulation de données

JOUR 2

  • Les fonctionnalités de base :
    • Les fonctions numériques simples,
    • Les générateurs de nombre aléatoire
  • Les distributions de probabilité et statistiques univariées
  • Les fonctions scientifiques {stats} et les tests statistiques de base
    • La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram)
  • L’écriture de scripts simples de programmation avec R

 

Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Séries temporelles avec R
Séries temporelles avec R
  • Savoir traiter les séries temporelles avec R

Introduction

  • Tendances et composantes saisonnières
  • Indices descriptifs d’une série temporelle

Lissages exponentiels

  • Lissage simple
  • Lissage double

Estimation et élimination de la tendance et de la saisonnalité

  • Bruit blanc
  • Processus stationnaire
  • Estimation paramétrique de la tendance
  • Estimation non paramétrique
  • Elimination de la tendance et de la saisonnalité

Modélisation des séries stationnaires

  • Auto-corrélation partielle
  • Les processus auto-régressifs
  • Les processus en moyenne mobile
  • Les processus mixtes ARMA
  • Tableau des propriétés
  • Estimation et choix de modèle
  • Processus ARIMA et SARIMA
Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais
Process et métiers des laboratoires
Analyse des données épidémiologiques avec STATA
Analyse des données épidémiologiques avec STATA
  • Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population.
  • Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides
  • Décrire et résumer les données
  • Élaborer des hypothèses et analyser les données.
  • Interpréter et communiquer les résultats

 

STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins.

STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche.

Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats.

  1. Analyses bio-statistiques de base

Rappels sur le logiciel STATA et sur la manipulation des données

Analyses univariées

  • Analyse de données quantitatives : t-test, tests non paramétriques
  • Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar
  • Corrélation : Pearson, Spearman

Tables épidémiologiques

  • Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées
  • Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable
  • Chi-carré, tests de Fishers exacts et mantel-Haenszel

Exercices

  1. Détermination de la taille de l’échantillon

Calcul de la taille de l’échantillon,

Poids d’échantillonnage

Puissance statistique

Construire des groupes de comparaison valides

Exercices

  1. Introduction aux modèles statistiques de base utilisés en épidémiologie

ANOVA, ANCOVA

Régressions linéaires simples et multiples

Introductions aux notions de confusion, de modification et de médiation

Régression logistique

Exercices

  1. Analyse de survie

Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche)

Modèle de Kaplan-Meier et taux de hasard

Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres.

Prédire les rapports de risque

Exercices

Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Bioélectrochimie - Concepts et applications
Bioélectrochimie - Concepts et applications
  • Acquérir les bases en bioélectrochimie.
  • Connaître les outils utilisés en bioélectrochimie.
  • Connaître les applications concrètes des systèmes bioélectrochimiques.
  • Pouvoir collaborer avec des chimistes/biologistes dans le cadre de projets incluant un système bio-électrochimique.

Initiation aux systèmes bioélectrochimiques

  • Qu’est-ce qu’un système bioélectrochimique ?
  • Les biofilms électroactifs.
  • Les microorganismes électroactifs modèles.
  • De la sélection anodique aux interactions microbiennes.
  • Les réacteurs : design et matériaux.

Les applications réelles

  • Traitement des eaux usées.
  • Traitement d’effluents industriels.
  • Production de molécules d’intérêt.
  • Autres applications.
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français Anglais
Formation FindMolecule : ELN
Formation FindMolecule : ELN
  • Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche.
  • Comprendre et maîtriser l’environnement FindMolecule.

Présentation (5 min)

  • Présentation du formateur ;
  • Résumé du programme de la formation ;
  • Prise de présence

Module 1. Utilisation du logiciel (2h55)

  • Section « Mon labo » et paramètres personnels
    • Gestion des paramètres personnels et notifications
    • Création de projets
    • Période de questions
  • Section « Cahier de laboratoire »
    • Le menu de gauche
      • Comment utiliser le menu de gauche
      • Connaître l’information contenue dans ce menu
    • Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages
      • Apprendre à utiliser les différents onglets
      • Comment accéder à l’information qu’ils contiennent
      • Comment gérer les paramètres de l’onglet Réglages
    • Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique)
      • Comment créer une expérience de laboratoire
      • Comment remplir les différentes sections d’une expérience
      • Comment compléter une expérience, de la création à la demande de contre-signature
      • Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience
      • Comment lier deux expériences
      • Comment cloner une expérience
      • Comment accéder aux expériences de nos collègues
    • Période de questions

Module 2. Gestion du logiciel (1h00)

Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées.

  • Section « Mon labo »
    • Comment ajouter, modifier et désactiver des utilisateurs
    • Comment créer, modifier et supprimer des projets
      • Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte
  • Section « Cahier de laboratoire »
    • Paramètres disponibles
  • Utilisation du rôle « Directeur »
  • Utilisation du rôle « Institution Admin »
  • Période de questions
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français
Formation FindMolecule : Inventaire
Formation FindMolecule : Inventaire
  • Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche.
  • Comprendre et maîtriser l’environnement FindMolecule.
    • Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises
    • Utiliser « Inventaire » et « Cahier de laboratoire »
    • Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire »

Présentation (5 min)

  • Présentation du formateur ;
  • Résumé du programme de la formation ;
  • Prise de présence

Module 1. Utilisation du logiciel (2h45)

  • Section « Mon labo » et paramètres personnels
    • Gestion des paramètres personnels et notifications
    • Création de projets
  • Section « Inventaire »
    • Inventaire :
      • Comment ajouter des composés et des équipements à l’inventaire
      • Comment rechercher des composés et des équipements
      • Comment consulter les résultats de recherche
      • Apprendre les actions possibles avec les résultats de recherche
    • Scanner :
      • Comment utiliser le mode Scan
      • Comment utiliser le mode Multiscan
      • Comment accéder et consulter la page d’aide
    • Système de gestion de Commandes et Réceptions :
      • Comment commander un composé ou un équipement
      • Comment compléter le formulaire de demande de commande
      • Comment utiliser la section « Mes commandes »
  • Période de question

Module 2. Gestion du logiciel (1h10)

Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées.

  • Section « Mon labo »
    • Comment ajouter, modifier et désactiver des utilisateurs
    • Comment créer, modifier et supprimer des projets
      • Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte
  • Section « Inventaire »
    • Comment modifier ou supprimer un composé ou un équipement
    • Comment imprimer une étiquette « GHS »
    • Comment utiliser la fonctionnalité « Rapport »
    • Comment gérer et indiquer l’achat et la réception des demandes de commandes
    • Comment créer, gérer, modifier et supprimer des emplacements
    • Comment gérer les paramètres du groupe
      • Comment gérer les paramètres généraux
      • Comment gérer les paramètres du code-barre
    • Comment obtenir une copie de l’inventaire
  • Utilisation du rôle « Institution Admin »
  • Période de questions

 

Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français
Formation FindMolecule : Inventaire et ELN
Formation FindMolecule : Inventaire et ELN
  • Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche.
  • Comprendre et maîtriser l’environnement FindMolecule.
    • Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises
    • Utiliser « Inventaire » et « Cahier de laboratoire »
    • Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire »

Présentation (5 min)

  • Présentation du formateur
  • Résumé du programme de la formation
  • Prise de présence

Module 1. Utilisation du logiciel (2h55)

  • Section « Mon labo » et paramètres personnel
    • Gestion des paramètres personnels et notifications ;
    • Création de projets ;
  • Section « Inventaire »
    • Inventaire :
      • Comment ajouter des composés et des équipements à l’inventaire ;
      • Comment rechercher des composés et des équipements ;
      • Comment consulter les résultats de recherche ;
      • Apprendre les actions possibles avec les résultats de recherche
    • Scanner :
      • Comment utiliser le mode Scan ;
      • Comment utiliser le mode Multiscan ;
      • Comment accéder et consulter la page d’aide
    • Système de gestion de Commandes et Réceptions :
      • Comment commander un composé ou un équipement ;
      • Comment compléter le formulaire de demande de commande ;
      • Comment utiliser la section « Mes commandes »
  • Section « Cahier de laboratoire »
    • Le menu de gauche
      • Comment utiliser le menu de gauche
      • Connaître l’information contenue dans ce menu
    • Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages
      • Apprendre à utiliser les différents onglets
      • Comment accéder à l’information qu’ils contiennent
      • Comment gérer les paramètres de l’onglet Réglages
    • Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique)
      • Comment créer une expérience de laboratoire
      • Comment remplir les différentes sections d’une expérience ;
      • Comment compléter une expérience, de la création à la demande de contre-signature ;
      • Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience ;
      • Comment lier deux expériences ;
      • Comment cloner une expérience ;
      • Comment accéder aux expériences de nos collègues ;

Module 2. Gestion du logiciel (2h)

Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées.

  • Section « Mon labo »
    • Comment ajouter, modifier et désactiver des utilisateurs ;
    • Comment créer, modifier et supprimer des projets ;
      • Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte ;
  • Section « Inventaire »
    • Comment modifier ou supprimer un composé ou un équipement ;
    • Comment imprimer une étiquette « GHS » ;
    • Comment utiliser la fonctionnalité « Rapport » ;
    • Comment gérer et indiquer l’achat et la réception des demandes de commandes ;
    • Comment créer, gérer, modifier et supprimer des emplacements ;
    • Comment gérer les paramètres du groupe
      • Comment gérer les paramètres généraux ;
      • Comment gérer les paramètres du code-barre ;
    • Comment obtenir une copie de l’inventaire ;
  • Section « Cahier de laboratoire »
    • Paramètres disponibles
  • Utilisation du rôle « Directeur »
  • Utilisation du rôle « Institution Admin »
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Français
Innover avec le design thinking
Innover avec le design thinking

Comprendre le processus de Design Thinking afin de l’utiliser pour innover et résoudre des problèmes complexes.

1. Discover : à la découverte du challenge à relever
2. Define : définir avec précision le problème à résoudre
3. Develop : imaginer la solution la plus pertinente
4. Deliver : construire la solution et recueillir des feedbacks selon une démarche itérative

Management du changement Process et métiers des laboratoires Coaching Intra-entreprise Distanciel Présentiel Français
Management Agile des projets scientifiques
Management Agile des projets scientifiques
  • Objectifs pédagogiques: Aborder l’état d’esprit et les concepts de l’Agilité
  1. Pourquoi passer à l’Agilité ?
  2. Introduction à l’Agilité
  3. Le vocabulaire de l’Agilité
  4. Les principes de Scrum
Management du changement Process et métiers des laboratoires Coaching Intra-entreprise Distanciel Présentiel Français
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Coaching Conseil Présentiel Distanciel Français
Séquençage haut débit et écologie microbienne
Séquençage haut débit et écologie microbienne
  • Comprendre le séquençage génomique à haut débit.
  • Être capable de choisir la technologie adaptée à son projet.
  • Connaître les outils bio-informatiques utilisés.
  • Connaître les analyses statistiques possibles.
  1. Méthodes moléculaires
    • Séquençage HTS.
    • Métagénomique ciblée.
    • Métagénomique globale.
    • Analyses RNA-seq.
    • CRISPR/Cas9.
  2. Applications en écologie microbienne
    • Extraction d’ADN microbien.
    • Analyse bioinformatique des séquences.
    • L’analyse de données : diversité, cluster, réseau, core-microbiome
Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français
Publication
Citavi : outil de gestion bibliographique et publication
Citavi : outil de gestion bibliographique et publication
  • Créer son projet Citavi
  • Organiser et gérer ses références avec Citavi
  • Alimenter sa base avec de nouvelles références par différents exports : DOI, PDF, sites web,…
  • Citer ses références bibliographiques avec Citavi et publier des documents avec Word, des articles contenant des références bibliographiques
  • Echanger et partager ses références et les éléments de connaissances
  1. Introduction à Citavi : exposé théorique (30 min)
  2. Démarrer avec Citavi : Découvrir l’interface et travailler sur un projet (créer, ouvrir, sauver), Collaborer avec Citavi : exercices appliqués (1h30)
  3. Alimenter le projet : Ajouter des références (manuellement, automatiquement),  Rechercher puis insérer des références (depuis Citavi, depuis Internet, avec le Picker) : exercices concrets avec imports de différents formats de documents, navigation sur internet pour rechercher de nouveaux documents (1h30)
  4. Organiser et planifier : Structurer et trier ses références (classement, filtre, tableau) , Rechercher dans son projet (dans les références et le texte intégral), Modifier ses références (les champs, les documents liés, les mots clés, l’évaluation), Planifier son travail (tâches) : présentation et exercices pratiques, étude de cas (1h)
  5. Enrichir avec les éléments de connaissance : Utiliser l’organisateur de connaissance, travailler sur ses documents PDFs (annotations), Ajouter des pensées au projet, Lier un article et sa review : exercices appliqués (1h30)
  6. Exploiter son projet : Utiliser des styles de citation Exporter des références (presse-papier, fichier texte, tableur, par e-mail) Créer la bibliographie d’un projet Rédiger des documents avec Word présentation théorique et application pratique (1h)
Publication Intra-entreprise Inter-entreprise Distanciel Présentiel Français Allemand Italien Anglais
EndNote : outil de gestion bibliographique et de publication
EndNote : outil de gestion bibliographique et de publication
  • Créer sa base de données bibliographique
  • Organiser et gérer ses références avec EndNote
  • Alimenter sa base avec de nouvelles références par différents exports : DOI, PDF, sites web,…
  • Citer ses références bibliographiques avec EndNote et publier des documents avec Microsoft Word, des articles contenant des références bibliographiques
  • Echanger et partager ses références
  1. Prendre en main le logiciel EndNote : présentation du logiciel et prise en main (30 min)
  2. Importer des références vers EndNote depuis différentes sources et différents formats : DOI, PDF, bases de données, site web,… exercices concrets avec imports de différents formats de documents, navigation sur internet pour rechercher de nouveaux documents (1h30)
  3. Saisir manuellement de références : exercices (15 min)
  4. Joindre des documents (pdf, photos, graphique,…) à vos références (15 min)
  5. Organiser votre bibliothèque EndNote (notion de groupes) présentation, exercice et cas concrets (30 min)
  6. Gérer sa bibliothèque (doublon, lien vers texte intégral, personnalisation du logiciel, …) : présentation, exercices (30 min)
  7. Intégrer des citations dans un document ou un article avec le logiciel Word (insérer des références, utiliser des modèles, notion de style bibliographique) présentation, exercices, cas concrets (2h)
  8. Constituer des bibliographies thématiques en fonction des besoins : exercices (30 min)
  9. La notion de style et personnaliser un style : exposé théorique, explication, exercices (30 min)
  10. Echanger et partager ses références : exposé théorique et exercices (30 min)
Publication Intra-entreprise Présentiel Distanciel Français
Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications
Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications
  • Découvrer le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative et bénéficier du potentiel des outils d’IAG
  • Utiliser des techniques de prompting avancées pour répondre à des besoins métier.
  • Classifier les outils d’intelligence artificielle générative selon les médias mis en œuvre (text-to-text, text-to-image, etc.), et sélectionner le bon outil pour un cas d’usage précis.
  • Produire des activités pédagogiques telles que des notes de cours, des guides d’étude, ou des résumés de chapitres pour aider les étudiants dans leur apprentissage.
  • Concevoir des examens et des quiz à partir du contenu de formation développé pour les étudiants et gagner du temps dans la préparation de vos cours
  • Générer des scénarios ou cas d’étude pour des travaux de groupe, basés sur des sujets d’actualité ou des avancées scientifiques pour décupler les possibilités d’animations de cours (contenu, ateliers de groupes, etc.)
  • Adapter son enseignement et préparer ses apprenants à la révolution de l’IAG

Partie 1 : les bases de l’IA et du prompt engineering (1h30)

– Décrire le principe de fonctionnement général d’une intelligence artificielle générative

– Découvrir le prompt engineering

 

Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques)

– Décrire les principaux modèles de prompt engineering

– Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement

– Créer plusieurs ressources : résumé, articles, traductions, présentations, etc.

 

Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques)

– Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter

– Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format

– Échanger autour des questions qui posent questions : éthique, droits d’auteur, sécurité…

Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français
Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications
Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications
  • Décrire le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative.
  • Utiliser des techniques de prompting avancées pour répondre à des besoins métier.
  • Synthétiser des articles et contenus scientifiques en produisant des résumés concis qui mettent en évidence les points clés et les conclusions principales.
  • Améliorer sa veille technologique en configurant, personnalisant et automatisant des outils d’intelligence artificielle générative pour surveiller et résumer les dernières recherches publiées dans des domaines spécifiques.
  • Identifier les points clés d’un domaine scientifique spécifique et détecter les sujets de recherche manquants nécessaires pour compléter un modèle théorique existant.
  • Traduire des articles

Partie 1 : les bases de l’IA et du prompt engineering (1h30)

– Décrire le principe de fonctionnement général d’une intelligence artificielle générative

– Découvrir le prompt engineering

 

Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques)

– Décrire les principaux modèles de prompt engineering

– Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement

– Créer plusieurs ressources : résumé, articles, traductions, présentations, etc.

 

Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques)

– Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter

– Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format

– Échanger autour des enjeux & bouleversements de l’IAG pour le secteur : éthique, droits d’auteur, sécurité…

Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français
Mettre en place sa veille scientifique et technologique dans un projet innovant
Mettre en place sa veille scientifique et technologique dans un projet innovant
  • Réussir la mise en œuvre de la veille scientifique, technique et technologique d’un projet.
  • Connaître le cycle de veille et organiser son plan de veille.
  • Organiser les différentes étapes de la veille concrètement.
  1. Se familiariser avec les bases du cycle global de la veille scientifique, présentation théorique et présentation des projets individuels (30 min)
  2. Identifier les étapes clés du processus de veille scientifique, présentation et exercice pratique (30 min)
  3. Méthodologie de recherche d’informations scientifiques, techniques et technologiques : exposé théorique et exercice de mise en pratique (30 min)
  4. Bien définir ses besoins, son périmètre et ses axes de recherche exercice pratique : exercice de mise en pratique (1h30)
  5. Organiser une veille ciblée cas concret (30 min)
  6. Bien choisir ses sources : les différents moteurs de recherche scientifiques, les bases de données et la littérature grise exercice , fiche technique, fiches conseil (1h30)
  7. Choisir et analyser les informations importantes au projet présentation théorique (30 min)
  8. Evaluer et gérer les informations (15 min)
  9. Diffuser sa veille : présentation (30 min)
  10. Point sur les outils de veille : présentation (15 min)
  11. Ajuster et mener des actions correctives sur le projet : théorie (30 min)
Communication et rédaction scientifique Publication Intra-entreprise Inter-entreprise Présentiel Distanciel Français
Statistiques théoriques et appliquées
Analyse avancée des séries temporelles avec EViews
Analyse avancée des séries temporelles avec EViews
  • Cette formation avancée d’une journée est construite de manière à couvrir les aspects fondamentaux de l’analyse des séries temporelles avec EViews, en se concentrant sur les modèles univariés et multivariés. Il combine des rappels des concepts théoriques avec des exercices pratiques mis en oeuvre avec EViews pour améliorer les compétences des participants en matière de modélisation et de prévisions avancées des séries temporelles.

Le programme peut être adapté sur deux jours dans le cas où les participants souhaitent renforcer leurs compétences dans le domaine des méthodes d’analyse des séries temporelles. Il peut être également être ajusté en fonction des compétences et des besoins des participants et du rythme souhaité d’apprentissage.

Session 1 : Rappel des notions de base sur les séries temporelles et mise en œuvre avec EViews (1h30)

1. Introduction à l’analyse des séries temporelles (30mn)
a. Définition et importance des séries temporelles
b. Application de l’analyse des séries temporelles
2. Interface et configuration EViews (30mn)
a. Revue de l’interface
b. Mise en place d’un projet d’analyse des séries temporelles
c. Chargement et organisation des données
3. Exploration préalable des données (30mn)
a. Statistiques descriptives
b. Exploration graphique
c. Identifier les tendances et les modèles

Session 2 : Analyse de séries temporelles univariées (1h30)

1. Stationnarité et différenciation (30mn)
a. Comprendre la notion de stationnarité
b. Différencier pour atteindre la stationnarité
c. Mise en œuvre dans EViews
2. Modèles ARIMA (1h)
a. Introduction aux modèles ARIMA
b. Identification des paramètres
c. Mise en œuvre dans EViews : construction et interprétation

Session 3 : Analyse de séries temporelles multivariées (2h)

1. Les modèles VAR (1h)
a. Introduction
b. Estimation avec EViews
c. Les fonctions de réponse impulsionnelle : mise en œuvre et lecture des résultats
2. Modèles de cointégration et à correction d’erreurs (ECM) (1h)
a. Comprendre la notion de cointégration
b. Mise en œuvre et interprétation avec EViews

Session 4 : Prévision et évaluation de modèles (2h)

1. Prévision de séries temporelles (1h)
a. Présentation des méthodes de prévision
b. Mise en œuvre avec EViews
c. Évaluation de la précision des prévisions
2. Évaluations et diagnostic du modèle (30mn)
a. Tests de diagnostics
b. Interprétation des résultats et examen des résidus du modèle
c. Des modèles affinés pour de meilleures prévisions : combinaison de méthodes
3. Exercice pratique (30mn)

Économétrie / Finance Statistiques théoriques et appliquées Coaching Intra-entreprise Présentiel Distanciel Français
Analyse des données épidémiologiques avec STATA
Analyse des données épidémiologiques avec STATA
  • Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population.
  • Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides
  • Décrire et résumer les données
  • Élaborer des hypothèses et analyser les données.
  • Interpréter et communiquer les résultats

 

STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins.

STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche.

Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats.

  1. Analyses bio-statistiques de base

Rappels sur le logiciel STATA et sur la manipulation des données

Analyses univariées

  • Analyse de données quantitatives : t-test, tests non paramétriques
  • Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar
  • Corrélation : Pearson, Spearman

Tables épidémiologiques

  • Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées
  • Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable
  • Chi-carré, tests de Fishers exacts et mantel-Haenszel

Exercices

  1. Détermination de la taille de l’échantillon

Calcul de la taille de l’échantillon,

Poids d’échantillonnage

Puissance statistique

Construire des groupes de comparaison valides

Exercices

  1. Introduction aux modèles statistiques de base utilisés en épidémiologie

ANOVA, ANCOVA

Régressions linéaires simples et multiples

Introductions aux notions de confusion, de modification et de médiation

Régression logistique

Exercices

  1. Analyse de survie

Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche)

Modèle de Kaplan-Meier et taux de hasard

Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres.

Prédire les rapports de risque

Exercices

Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais
Biostatistiques avec R
Biostatistiques avec R
  • Apprendre à utiliser le logiciel R pour analyser des données
  • Être capable de comprendre et choisir le test statistique approprié
  • Savoir représenter des données sous R
  • Comprendre les statistiques
    • Logiques de raisonnement et hypothèses.
  • Notions de base pour utiliser R en statistiques
    • Les fondamentaux du logiciel R.
    • La création de variables et la manipulation de données.
  • Choisir le test approprié
    • Loi normale et homoscédasticité.
  • Comparaison de moyennes
    • Tests paramétriques.
    • Tests non paramétriques.
  • Les analyses multivariées
    • Coefficient de corrélation de Pearson.
    • L’analyse en composantes principales (ACP)
Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
Découverte du logiciel Stata : Stata Deb1 – Stata Deb4
  • Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations.

Stata Deb1 : A la rencontre du logiciel 

  • Présentation de l’environnement du logiciel
  • Comment paramétrer une session Stata pour être efficace
  • La syntaxe générale d’une commande de Stata
  • Savoir utiliser l’aide pour devenir autonome
  • Exemple commenté d’une session Stata pour en appréhender les possibilités
  • Importer des données, les décrire et les visualiser : une première approche
  • Un premier Exercice

Stata Deb2 : Travailler ses données 

  • Exploration d’un fichier de données : le conditionnel if, by et in
  • Manipuler des variables : création, recodage, labels et plein d’autres astuces
  • Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées
  • Un exercice pour se tester

Stata Deb3 : Statistiques Descriptives, Tables et Graphiques 

  • Statistiques descriptives
  • Tables statistiques synthétiques
  • Analyse univariée
  • Une introduction à l’analyse de la variance
  • Les graphiques avec Stata
  • Un exercice synthétique

Stata Deb4 : Une introduction à la régression

  • Régression linéaire : estimation, post-estimation, diagnostics et tests
  • Régression logistique : estimation, post-estimation, diagnostics et tests
  • Découverte de la programmation : les boucles
  • Exercice synthétique (suite)

 

Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Distanciel Français Anglais
Introduction à EViews
Introduction à EViews
  • Ce programme sur deux jours fournit une introduction à EViews, couvrant les fonctionnalités essentielles et les applications pratiques pour l’analyse et la prévision des données.
  • Les participants doivent repartir avec une maîtrise du logiciel et la capacité de l’appliquer à leur travail.
  • Des ajustements peuvent être proposés en fonction des connaissances préalables des participants et de leurs besoins spécifiques.

Session 1 : Introduction à EViews et à son environnement (3h30)

1. Introduction et Aperçu
a. Présentation du formateur et des participants
b. Bref aperçu des objectifs de la formation

2. Premiers pas avec EViews
a. Présentation détaillée de l’interface
b. Options de navigation et de personnalisation de base

3. Travailler avec des workfiles
a. Création, ouverture et sauvegarde
b. Comprendre les différents types de workfiles
c. Options d’importation et d’exportation des données

4. Gestion des données dans EViews
a. Exploration et nettoyage des bases de données
b. Transformation des variables
c. Gestion des données manquantes
5. Exercices pratiques

Session 2 : Notions de base sur la manipulation des données et des séries chronologiques (3h30)

1. Statistiques descriptives
a. Calcul des statistiques de base
b. Représentation graphique des données
c. Techniques d’exploration des données

2. Analyse des séries chronologiques
a. Comprendre la nature des séries chronologiques
b. Représentations graphiques spécifiques
c. Analyses de base des séries chronologiques

3. La régression : premiers pas avec Eviews
a. Introduction à l’analyse de régression
b. Mise en œuvre et interprétation des résultats
4. Exercices pratiques

Session 3 : Les méthodes d’analyse les plus usuelles (3h30)

1. La régression : pour aller plus loin avec EViews
a. Mettre en œuvre plusieurs régressions
b. Tests de diagnostics

2. Les méthodes de prévision
a. Techniques de prévision des séries chronologiques
b. Mise en œuvre de modèles de prévision
c. Évaluation de la précision des prévisions

Session 4 : Présentation des données, rapports et synthèse (3h30)

1. Présentation des données et graphiques
a. Création et personnalisation de tableaux et de graphiques
b. Exportation de résultats vers d’autres formats

2. Générer des rapports dans EViews
a. Présentation des fonctionnalités de création de rapports
b. Création d’un rapport de base

3. Études de cas et exercices pratiques
a. Application d’EViews à une étude de cas réelle
b. Présentation des résultats par les participants

4. Synthèse
a. Récapitulatif et concepts clés
b. Bonnes pratiques et ressources supplémentaires
c. Commentaires des participants et remarques finales

Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français
L'Analyse de données avec R
L'Analyse de données avec R

Savoir manipuler les données et en tirer de l’information avec R.

Statistiques introductives

  • Statistique univariée
  • Statistique bivariée
  • Introduction à ggplot2, la grammaire des graphiques
  • Graphiques univariés et bivariés avec ggplot2
  • Données pondérées

Statistiques intermédiaires

  • Intervalles de confiance
  • Comparaisons
  • Définir un plan d’échantillonnage complexe
  • Régression linéaire
  • Régression logistiques binaire, multinomiale et ordinale
  • Analyse en correspondances multiples
  • Classification ascendante hiérarchique

Statistiques avancées

  • Effets d’interaction dans un modèle
  • Multi-colinéarité dans la régression
  • Analyse de survie
  • Analyse de séquences
  • Analyse de réseaux
  • Analyse spatiale
Data Science Open Source Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Blended Distanciel Français Anglais
Plans factoriels avec Design Expert
Plans factoriels avec Design Expert

Apprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert

Jour 1

1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ;

2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité

3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement

4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses

5. Estimation des coefficients d’un polynôme :
Cas général : effets plus ou moins fortement redondants ;
régression linéaire multiple nécessaire ;
Orthogonalité : effets parfaitement indépendants ; estimation directe possible

6. Typologie des plans d’expériences proposés par Design-Expert :
• Plans « standards » (généralement orthogonaux) :
Pas de contrainte sur : le domaine expérimental, le nombre d’essais, …
• Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) :
– Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution
– Plans de Plackett & Burman (matrices de Hadamard)
• Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux
• Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) :
• plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV »

Jour 2

Avec Design Expert :
1. Plan Factoriel – Traitement d’exemple(s) :
• Création d’un Plan Factoriel avec Design Expert :
• Catalogue – Guide – Résumé
• Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur
• Comparaison des divers types de plans pour un problème donné :
Plan de Plackett & Burman (criblage de facteurs influents)
Plan factoriel fractionnaire (modèle avec interactions)
Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) :
« Min Run Res V » (modèle avec interactions)
« Min Run Res IV » (modèle sans interaction)
• Principes de construction de ces plans – Justification théorique.

2. Analyse des résultats avec Design Expert :
• Analyse de corrélation entre Réponses
• Modélisation « Factorielle » de chaque Réponse :
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension
Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide
Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox
Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations
Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique
Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction
Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox)
Utilisation du modèle : graphes de visualisation et de compréhension du modèle

Jour 3

1. Analyse des résultats avec Design Expert :
• Suite et fin
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

2. Optimisation des réponses avec Design Expert :
• Numérique : Critères de désirabilité – Solutions – Graphes
• Graphique : Critères de plage – Graphes
• Prédictions : Intervalles de Confiance et de Prédiction
• Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension

3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert :
• de la résolution en cours à une résolution supérieure (clarification de concomitances)
• (Fold / Semifold / Optimal factorial)
• d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse
• Questions et réponses.
• Présentation et commentaires de problématiques « participants ».

Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Coaching Conseil Présentiel Distanciel Français
Stata ERM : Les modèles de régression étendus
Stata ERM : Les modèles de régression étendus
  • Apprendre à prendre en compte les différentes sources d’endogénéité dans un modèle de régression

1 modules de 3,5 heures

  1. Les différentes sources d’endogénéité et les conséquences sur les propriétés des estimateurs
  2. Les méthodes d’estimation pour en tenir compte
  3. Une commande synthétique qui permet de considérer ces différentes sources dans un seul modèle
  4. Un exercice pratique

 

Analyse Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Anglais Français
Stata Lasso
Stata Lasso
  • Maîtriser les méthodes Lasso (least absolute shrinkage and selection operator) avec Stata pour la prédiction et l’/ou l’inférence sur les paramètres causaux. Cette méthode de régression (généralement utilisée dans les problèmes en grande dimension) consiste à pénaliser la taille absolue des coefficients de régression.
  1. Comment sélectionner des variables dans un très grand ensemble de variables potentielles ?
  2. Objectif sélection ou prédiction ?
  3. Variables quantitatives ou qualitatives
  4. La validation croisée
  5. La représentation des résultats
  6. Quelques prolongements
Analyse Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Anglais Français
Stata Perfectionnement : Stata Av1 – Stata Av4
Stata Perfectionnement : Stata Av1 – Stata Av4
  • Améliorer la maîtrise du logiciel et découvrir des fonctions avancées de Stata
    • Déclarer les données dans différents formats
    • Estimation avancées
    • Programmation.

Stata Av1 : Gestion avancée des données

  • Traitement des variables alphanumériques
  • Fusion et agrégation de données
  • Traitement des variables de date et opérateurs de séries temporelles
  • Gestion avancée des graphiques

Stata Av2 : Programmation avec Stata

  • Les macros locales et globales
  • Les boucles, les sommes et les compteurs, les variables temporaires
  • Programmer pour reproduire
  • Exemples d’application

Stata Av3 : Méthodes d’estimations, tests et prédictions

  • La régression linéaire avec variables qualitatives et interactions
  • Présenter les résultats dans un tableau synthétique et les exporter
  • Tests de spécification et diagnostics
  • Extension à d’autres méthodes d’estimation

Stata Av4 : Introduction à l’estimation sur données de panel

  • Structurer et visualiser les données
  • Modèle à effets fixes
  • Modèles à effets aléatoires
  • Quelques extensions
Analyse Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Distanciel Présentiel Anglais Français
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2
  • Traiter et Analyser des séries temporelles avec Stata.

Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles

  • Traitement des variables de date et opérateurs de séries temporelles
  • Les graphiques spécifiques pour les séries temporelles
  • Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire
  • Un exercice pratique

Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques

  • La régression linéaire à partir de séries temporelles
  • La modélisation ARIMA
  • La prévision
  • Exercice synthétique
Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Anglais
Filtres
Catégorie
Type de formation
Modalité
Langue

Vous recherchez des informations sur une formation ?

Vous souhaitez mettre en place une session de formation sur mesure ?

Contactez notre équipe pédagogique !

Stata
Rapide, précis et facile à utiliser, le logiciel Stata est la référence pour le traitement et l’analyse de données statistiques et de data science. Il répond à tous vos besoins en matière de science des données : manipulation des données, visualisation, statistiques et rapports automatisés.