Catalogue de formation Accueil Formations Catalogue de formation Vous trouverez ici notre catalogue de formations ‘sur étagère’: les programmes qui servent de base et de repères pour ce que nous pouvons réaliser ensemble. Certaines de ces formations correspondent à des problématiques très précises et répondent à un besoin circonscrit, comme les formations sur une méthode spécifique abordée via le prisme d’un logiciel ; d’autres peuvent s’associer afin de composer un véritable parcours de formation modulaire qui assure une montée en compétences progressive. Toutes nos formations sont proposées en intra-entreprise, c’est à dire pour une personne, une équipe ou un établissement en particulier: elles peuvent être adaptées à vos contraintes et à vos objectifs dans le cadre de formations sur-mesure. Plusieurs formations sont aussi proposées en sessions inter-entreprise, c’est-à-dire que vous pouvez décider de vous inscrire individuellement, en toute liberté, à une session proposée à notre calendrier. Bien que les informations disponibles pour chacune de ces formations tentent d’être exhaustives, si vous aviez des questions ou des doutes quant au niveau ou aux prérequis, nous nous ferons un plaisir de valider ensemble l’adéquation entre le programme et votre objectif. N’hésitez à nous consulter pour déterminer ensemble la forme que prendra votre projet de formation. Nos formations inter-entreprise se tiennent pour l’instant en classe virtuelle, et vous pouvez bénéficier durant toute leur durée de l’accès à notre plateforme de formation dédiée : un espace où participer aux sessions, accéder aux contenus pédagogiques, vous documenter, participer aux sessions, échanger avec les autres apprenants, et plus encore. Nos conditions Générales de Vente formations sont téléchargeables ci-dessous : Formation-CGV-2022-1Télécharger Délais d’accès aux formations Dans le cadre des inter-entreprises, vous avez la possibilité de vous inscrire jusqu’à 2 jours ouvrés à l’avance, sous réserve de disponibilité. Notre équipe formation prendra contact avec vous pour valider votre participation (réception d’un bon de commande, d’une convention de formation ou d’un paiement) . En cas de prise en charge par un organisme-financeur (OPCO), merci de vérifier leurs conditions spécifiques. Dans le cadre des formations intra-entreprises, le délai moyen d’accès à nos formations est de 21 jours ouvrés ; la réalisation effective de la formation dépendra des disponibilités de vos équipes et des nôtres. Public en situation de handicap Nous avons entrepris des démarches afin de nous adapter et conscientiser nos équipes et partenaires autour d’une approche globale du handicap, Nous œuvrons pour plus d’inclusivité et pour garantir l’égalité des chances et d’accès à nos parcours de formation, quelle que soit la situation des apprenants. N’hésitez pas à nous faire part de vos besoins spécifiques. Nous n’aurons peut-être pas la solution d’emblée, mais nous mettrons tout en œuvre pour fournir une réponse individualisée et vous accueillir dans les meilleures conditions. Pour plus d’informations, vous pouvez contacter notre Référent Handicap en vous adressant à formation(at)ritme.com. Analyse Analyse des données épidémiologiques avec STATA Découvrir Analyse des données épidémiologiques avec STATA Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population. Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides Décrire et résumer les données Élaborer des hypothèses et analyser les données. Interpréter et communiquer les résultats STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins. STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche. Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats. Analyses bio-statistiques de base Rappels sur le logiciel STATA et sur la manipulation des données Analyses univariées Analyse de données quantitatives : t-test, tests non paramétriques Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar Corrélation : Pearson, Spearman Tables épidémiologiques Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable Chi-carré, tests de Fishers exacts et mantel-Haenszel Exercices Détermination de la taille de l’échantillon Calcul de la taille de l’échantillon, Poids d’échantillonnage Puissance statistique Construire des groupes de comparaison valides Exercices Introduction aux modèles statistiques de base utilisés en épidémiologie ANOVA, ANCOVA Régressions linéaires simples et multiples Introductions aux notions de confusion, de modification et de médiation Régression logistique Exercices Analyse de survie Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche) Modèle de Kaplan-Meier et taux de hasard Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres. Prédire les rapports de risque Exercices Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Distanciel Français Anglais Biostatistiques avec R Découvrir Biostatistiques avec R Apprendre à utiliser le logiciel R pour analyser des données Être capable de comprendre et choisir le test statistique approprié Savoir représenter des données sous R Comprendre les statistiques Logiques de raisonnement et hypothèses. Notions de base pour utiliser R en statistiques Les fondamentaux du logiciel R. La création de variables et la manipulation de données. Choisir le test approprié Loi normale et homoscédasticité. Comparaison de moyennes Tests paramétriques. Tests non paramétriques. Les analyses multivariées Coefficient de corrélation de Pearson. L’analyse en composantes principales (ACP) Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais Construire un projet de recherche qualitative avec NVivo Découvrir Construire un projet de recherche qualitative avec NVivo Comprendre les enjeux méthodologiques liés à l’utilisation de NVivo Connaitre et comprendre l’interface de NVivo Être en mesure d’importer et d’organiser des données qualitatives dans NVivo Être en mesure de coder des données Connaitre les fonctionnalités avancées du logiciel (requêtes, double-codage, quantification de l’analyse qualitative) Demi-journée 1 Introduction au logiciel NVivo Présentation de l’interface à l’aide du projet exemple Création/Importation/Edition des documents Mémos, mémos liés, liens à, annotations Demi-journée 2 Les classifications de fichiers Les cas et les classifications de cas L’encodage avec les codes (encodage, désencodage, bandes d’encodage, codage in vivo, organisation hiérarchique des codes, agrégation d’en l’encodage, codebook) Demi-journée 3 L’encodage des relations L’encodage automatique des sentiments et des thèmes Travailler avec des données non-textuelles (pdf, vidéo/audio, images, enquêtes) NCapture (si les participants utilisent Google Chrome ou Internet Explorer) Les représentations visuelles (cartes, diagramme de comparaison, etc.) Demi-journée 4 La requête fréquence de mots La requête de recherche textuelle La requête d’encodage La requête matricielle La requête de tableau croisé La comparaison d’encodage et le double codage (sous réserve de temps disponible) Analyse Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais Découverte du logiciel Stata : Stata Deb1 – Stata Deb4 Découvrir Découverte du logiciel Stata : Stata Deb1 – Stata Deb4 Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations. Stata Deb1 : A la rencontre du logiciel Présentation de l’environnement du logiciel Comment paramétrer une session Stata pour être efficace La syntaxe générale d’une commande de Stata Savoir utiliser l’aide pour devenir autonome Exemple commenté d’une session Stata pour en appréhender les possibilités Importer des données, les décrire et les visualiser : une première approche Un premier Exercice Stata Deb2 : Travailler ses données Exploration d’un fichier de données : le conditionnel if, by et in Manipuler des variables : création, recodage, labels et plein d’autres astuces Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées Un exercice pour se tester Stata Deb3 : Statistiques Descriptives, Tables et Graphiques Statistiques descriptives Tables statistiques synthétiques Analyse univariée Une introduction à l’analyse de la variance Les graphiques avec Stata Un exercice synthétique Stata Deb4 : Une introduction à la régression Régression linéaire : estimation, post-estimation, diagnostics et tests Régression logistique : estimation, post-estimation, diagnostics et tests Découverte de la programmation : les boucles Exercice synthétique (suite) Analyse Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais Formation modulaire à NVivo - Approfondissement de NVivo Découvrir Formation modulaire à NVivo - Approfondissement de NVivoÉchanger avec les participants sur leurs pratiques de NVivo et approfondissement des connaissances et compétences suivantes : Maitriser l’environnement NVivo. Gestion des sources Gestion des cas Codage des sources Requêtes et matrices Documenter son analyse ; mémos, annotations et liens à. Visualisation et exportation L’importation et l’utilisation des données provenant des réseaux sociaux et du web Le travail collaboratif et la comparaison d’encodeur. Retour sur les principes de bases : L’analyse qualitative avec NVivo (3h) Échange avec les participants sur leurs pratiques + Remise à niveau si nécessaire (3h) Échange avec les participants sur les pratiques et leurs besoins. Le but de ce module est d’uniformiser les connaissances du logiciel et de l’analyse qualitative. Chaque participant pourra présenter ses recherches et les questions qu’ils se posent en vue de préparer la formation Module 1 : La génération et utilisation des cas à travers les requêtes (2h) Cas, classifications, attributs et valeurs d’attributs quelles différences dans NVivo ? Importation de feuilles de caractéristiques via Excel Organisation de cas et imbrications des différents niveaux Module 2 : Les requêtes automatiques et le travail collaboratif (2h) Codage automatique des émotions et des thèmes Codage automatique sur base de la structure des documents – travailler avec des entretiens semi-structurés et structurés Travailler avec plusieurs sur un projet NVivo La comparaison d’encodeur Module 3 : Les requêtes : Approfondir la compréhension de son corpus et son codage (2h) Les requêtes de fréquences et les nuages de mots La recherche de mots, synapsie et classification hiérarchiques descendantes. Encodage matriciel : approches exploratoires et recouvrement de mots Tableaux croisés : recoupement des noeuds et caractéristiques Requêtes d’encodage : résoudre un questionnement en quelques clics Module 4 : Documenter ses analyses, son travail et les visualisations (2h) Mémos et annotations Liens à Liaisons internes Matrices à condenser Les diagrammes de comparaisons, grappes, cartes de projets et conceptuelles. Module 5 : Le travail depuis les données du Web (2h) Importer les données depuis tTwitter, Facebook et YouTube Importer les données depuis des sites web L’analyse de réseaux avec NVivo Module 6 : La revue de littérature avec NVivo (2h) Importer ses documents scientifiques à partir de (Endnote, Zotéro, Refworks ou Mendeley) Codage thématique des documents scientifiques Analyse Inter-entreprise Intra-entreprise Coaching Distanciel Présentiel Français Anglais Formation modulaire à NVivo - Découvrir Nvivo Découvrir Formation modulaire à NVivo - Découvrir Nvivo Comprendre le rôle de NVivo dans le processus de l’analyse qualitative. Comprendre et maîtriser l’environnement NVivo. Gestion des sources Gestion des cas Codage des sources Les matrices de croisement Documenter son analyse ; mémos, annotations et liens à. Première demi-journée 1. L’analyse qualitative avec NVivo et prise en main du logiciel (1h) Rappel des principes de bases en analyse qualitative La place des logiciels d’aide à l’analyse qualitative dans le processus de recherche Nvivo son interface et sa philosophie 2. La préparation d’un projet (1h) Préparation des sources, organisation du logiciel et importation de sources (données textuelles en word et pdf et images) La carte mentale NVivo : le brainstorming comme point de départ du codage Exercices pratiques 3. Le codage déductif et inductif (2h) Exercices pratiques sur base de données textuelles et image. Les différentes logiques de codage. Les relations Module 1 : Le cas particulier des données audio et vidéos et la transcription (2h) Les différents types de transcription. Échange entre les participants sur leurs pratiques Les outils pour réaliser une transcription efficacement Démonstration de NVivo transcription I Importation de transcription réalisée en dehors de Nvivo Module 2 : Les requêtes automatiques (2h) Codage automatique des émotions et des thèmes Codage automatique sur base de la structure des documents – travailler avec des entretiens semi-structurés et structurés Module 3 : Travailler avec des enquêtes et des tableaux de données (2h) Importation des fichiers Excel Le codage automatique des tableaux de données Module 4 : Documenter ses analyses, son travail + Matrices de croisements (2h) Mémos et annotations Liens à Liaisons internes Les matrices de croisement pour explorer les liens entre les idées Analyse Inter-entreprise Intra-entreprise Coaching Présentiel Distanciel Français Anglais Formation modulaire à NVivo - Devenir Expert NVivo Découvrir Formation modulaire à NVivo - Devenir Expert NVivo Comprendre le rôle de NVivo dans le processus de l’analyse qualitative. Comprendre et maîtriser l’environnement NVivo : Gestion des sources Gestion des cas Codage des sources Requêtes et matrices Documenter son analyse ; mémos, annotations et liens à. Visualisation et exportation L’importation et l’utilisation des données provenant des réseaux sociaux et du web Le travail collaboratif et la comparaison d’encodeur. L’analyse qualitative avec NVivo et prise en main du logiciel (1h) La préparation d’un projet (1h) Le codage déductif et inductif (2h) Le cas particulier des données audio et vidéos et la transcription (2h) Les cas dans NVivo (2h) Les requêtes : Approfondir la compréhension de son corpus et son codage (3h) Les requêtes automatiques (2h) Travailler avec des enquêtes et des tableaux de données (2h) Documenter ses analyses, son travail et les visualisations (2h) Le travail depuis les données du Web (2h) Le travail collaboratif (2h) La revue de littérature avec NVivo (1h) Analyse Intra-entreprise Coaching Distanciel Présentiel Français Anglais Graphiques scientifiques avec PRISM Découvrir Graphiques scientifiques avec PRISM Découvrir l’ensemble des possibilités offertes par PRISM pour obtenir le graphique que l’on souhaite, tracé automatique des courbes d’ajustement compris. 1. Notions de base Présentation des possibilités de PRISM au travers d’exemples permettant aux participants de pointer au formateur les représentations qui les intéressent le plus. Créer un premier graphique pour mieux comprendre les impératifs relatifs aux feuilles de données. La notion de projet (structure d’un fichier PRISM, sections, liens automatiques, les boutons « magiques », etc.). La navigation et la gestion d’un projet PRISM (trouver la bonne feuille de données, renommer les feuilles, geler les feuilles, réordonner les feuilles, fusionner et fractionner des projets). Les feuilles d’information. 2. Les feuilles de données : Concepts essentiels Présentation des huit types de feuilles de données. Column : Test pour les échantillons appariés et non appariés. Identifier les valeurs aberrantes. XY : analyse de corrélation. Grouped : ANOVA bidirectionnelle. Contingency : Chi-carré. Survival : Kaplan-Meier et test du log-rank. Parts of whole : diagramme circulaire. Nested : Nested t-test. Multiple variables : analyse de plusieurs variables simultanément. 3. Graphiques avec PRISM Création et modification des graphiques (graphiques multiples à partir de la même table, modification des propriétés, etc.). Modification des barres et symboles (formats et couleurs des lignes et symboles, changement de l’aspect d’une donnée). Les axes (échelles, limites, ruptures, numérotation, titres, montrer et cacher les graduations). Les axes logarithmiques. La maîtrise des couleurs. Tables encapsulées dans les graphiques. Les légendes. Dispositions sur la page (layouts). 4. Importation et exportation de données Méthodes rapides d’importation de données comme alternative au copier-coller. Exportations aux formats exigés. 5. Analyses et graphiques répétitifs (templates) et remarques finales Analyse Chimie / Bio Intra-entreprise Distanciel Présentiel Français Anglais Initiation au langage de R Découvrir Initiation au langage de R Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage R1 : Premiers pas dans R Introduction Saisir une commande dans la console Ecrire un script propre, structuré et commenté Créer, modifier, visualiser et effacer un objet Manipuler les différents types de données et structures des données Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions R2 : Importer, contrôler et exporter des tableaux de données Afficher et modifier le répertoire de travail Importer des données contenues dans un fichier .csv Contrôler les types de ses variables et les modifier si besoin Les variables qualitatives : les facteurs Contrôler les données manquantes Exporter un tableau de données dans un fichier .csv R3 : Valorisation numérique des données Manipuler son jeu de données (sélection de variables, de lignes …) Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information Statistiques descriptives, comptages, tableau croisé Agrégation de données (statistiques par groupe d’observations) R4 : Valorisation graphique des données Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …) Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …) Enregistrer un graphique Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Distanciel Anglais Français Machine Learning Avancé Découvrir Machine Learning Avancé Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif. À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée. JOUR 1 L’exploration avancées des données : DBSCAN, algorithme de clustering de données non supervisées Manifold Learning JOUR 2 Gaussian Mixture Modelling (GMM) Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS) Support Vector Machine (SVM) JOUR 3 Random Forest et Gradient Boosting Machines L’estimation et la validation croisée par Bootstraping Le filtrage collaboratif et le système de recommandation Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français Machine Learning bases Découvrir Machine Learning bases Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining. À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs. JOUR 1 Introduction aux méthodes non supervisées : L’analyse en composantes principales (PCA) La classification automatique (k-means), Les règles d’association (apriori, eclat) Introduction aux méthodes supervisées : Les modèles de régression linéaire et logistique avec régularisation (ridge régression), Les arbres de décision (régression et classification) JOUR 2 Les méthodes standards pour mettre en œuvre des modèles prédictifs : Feature engineering : apprendre à réduire la complexité d’un problème, Sélection de variables, Validation croisée, Calibration d’un modèle prédictif Text Mining et web scraping Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français Origin : Analyse de pics Découvrir Origin : Analyse de pics Détection et suppression de ligne de base Détection de pics Déconvolution de pics Déconvolution en masse à l’aide de thèmes de calculs 1. Présentation des différents outils relatifs à l’analyse de pic 2. Traitement de la ligne de base 3. Détection de pics 4. Intégration de pics 5. Déconvolution de pics 6. Déconvolution en masse à l’aide de thèmes de calculs Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais Origin : Batch processing Découvrir Origin : Batch processing Réaliser des filtres d’import Automatiser le traitement des données Réaliser des rapports personnalisés et des modèles d’analyse Générer des tables de synthèse d’analyse 1. Filtres d’import 2. Enchainement d’opérations et recalcul automatique 3. Rapports personnalisés 4. Traitement ne masse par drag and drop 5. Traitement en masse avec l’outil Batch Processing 6. Optimisation des calculs avec l’App Distributed Batch Processing 7. Tables de synthèse Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français Origin : Fonctions de base Découvrir Origin : Fonctions de base Importer des données de formats variés Réaliser des graphiques et les personnaliser (styles, templates, thèmes) Traiter les données et automatiser les calculs Réaliser des ajustements de données, créer ses propres fonctions d’ajustement Détecter et déconvoluer des pics 1. Graphiques Graphiques de base Tracés en groupe Personnalisation des courbes et des axes Graphiques statistiques Axes spéciaux (radar, coordonnées polaires) Graphiques de surface et 3D Batch plotting 2. Importation de données Importation de fichiers ASCII, CSV, Excel Personnalisation, import en masse 3. Calculs et manipulation de données Calculs entre colonnes Extraction et réorganisation de données Masquage et filtrage de données Statistiques descriptives Intégration, dérivation, inter/extrapolation Traitement du signal Sauvegarde et réutilisation de thèmes de calculs 4. Ajustement Ajustement linéaire, polynomial et non linéaire Création et édition de fonctions d’ajustement Ranking de fonctions d’ajustement 5. Analyse de pics Détection et intégration de pics Déconvolution de pics 6. Traitement en masse Modèles d’analyse, rapports personnalisés Import et traitement en masse 7. Ajout de fonctionnalités avec les Apps 8. Reconstruction de données à partir de fichiers image Analyse Ingénierie et développement Inter-entreprise Intra-entreprise Présentiel Français Anglais Origin : Graphiques avancés Découvrir Origin : Graphiques avancés Maitrise des possibilités de personnalisation des graphiques et stratégies de réalisation de graphiques complexes 1. Tirer le meilleur parti des templates, clones et thèmes 2. Stratégies de réalisation de graphiques complexes 3. Travaux à partir de cas concrets des participants Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français Origin : Programmation Découvrir Origin : Programmation Maîtriser des fonctions de base de la programmation: accès aux différents objets d’Origin, variables, fonctions, boites de dialogue. 1. Environnement Script Window, Command Window et Code Builder Déclenchement de scripts à partir de boutons de raccourci Déclenchement de scripts par des événements 2. Types de variables 3. Accès aux objets Origin Accès aux données issues de workseet Graphiques et personnalisation Objets graphique 4. Opérateurs et calculs 5. Structures des scripts 6. Fonctions 7. Boites de dialogues Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais Outils avancés - Python Découvrir Outils avancés - Python Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly… JOUR 1 Les traitements avancés des données : La librairie numpy : les fonctions avancées (views, slices) l’interface avec scipy La librairie pandas : L’importation de sources de données externes, L’agrégation de données, Le reshaping, L’indexation, La fusion de sources de données La librairie statmodels : La régression simple et multiple, Les tests des coefficients de régression, Le diagnostic du modèle, La prédiction ponctuelle et par intervalle Le traitement des chaînes de caractères, regex Le traitement des dates et gestion des séries chronologiques JOUR 2 Les générateurs, itertools, lazy evaluation L’interface base de données (SQL, NoSQL) Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap) Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Français Anglais Outils avancés - R Découvrir Outils avancés - R Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly. À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a JOUR 1 L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven} Les outils pour optimiser les traitements de données, {data.table} et {dplyr} : La manipulation avancée des data frames, L’aggrégation de données, Le reshaping, L’indexation, La fusion de sources de données La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} : La régression simple et multiple, Les tests des coefficients de régression, Le diagnostic du modèle, La prédiction ponctuelle et par intervalle JOUR 2 Le traitement des chaînes de caractères, regex Le traitement des dates et gestion des séries chronologiques L’approche fonctionnelle et lazy evaluation L’interface base de données (SQL, NoSQL) Les fonctionnalités graphiques avancées avec le package {ggplot2} : Les graphiques en trellis, Les distributions statistiques, Représentation de données avec le heatmap Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly} Analyse Data Science Open Source Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais Outils de base - Python Découvrir Outils de base - Python Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib. JOUR 1 L’environnement de travail : Python 2 et 3.x, La présentation des différentes consoles et le débogage en Python : Anaconda, Jupyter, Spyder Les types de données : listes, dictionnaires Les structures de contrôle Les fonctions, méthodes et packages JOUR 2 La préparation et le nettoyage des données : numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire) scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base) Les distributions de probabilité et statistiques univariées simples Fonctions graphiques de base (scatterplot, box plot, histogrammes) L’écriture de scripts simples Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais Outils de base - R Découvrir Outils de base - R Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}. À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base. JOUR 1 L’environnement de travail : Présentation de R 3.x Présentation de RStudio Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples Les structures de contrôle de base de R Les fonctions et les packages importants pour la manipulation de données JOUR 2 Les fonctionnalités de base : Les fonctions numériques simples, Les générateurs de nombre aléatoire Les distributions de probabilité et statistiques univariées Les fonctions scientifiques {stats} et les tests statistiques de base La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram) L’écriture de scripts simples de programmation avec R Analyse Data Science Open Source Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais Plans factoriels avec Design Expert Découvrir Plans factoriels avec Design ExpertApprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert Jour 1 1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ; 2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité 3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement 4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses 5. Estimation des coefficients d’un polynôme : Cas général : effets plus ou moins fortement redondants ; régression linéaire multiple nécessaire ; Orthogonalité : effets parfaitement indépendants ; estimation directe possible 6. Typologie des plans d’expériences proposés par Design-Expert : • Plans « standards » (généralement orthogonaux) : Pas de contrainte sur : le domaine expérimental, le nombre d’essais, … • Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) : – Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution – Plans de Plackett & Burman (matrices de Hadamard) • Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux • Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) : • plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV » Jour 2 Avec Design Expert : 1. Plan Factoriel – Traitement d’exemple(s) : • Création d’un Plan Factoriel avec Design Expert : • Catalogue – Guide – Résumé • Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur • Comparaison des divers types de plans pour un problème donné : Plan de Plackett & Burman (criblage de facteurs influents) Plan factoriel fractionnaire (modèle avec interactions) Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) : « Min Run Res V » (modèle avec interactions) « Min Run Res IV » (modèle sans interaction) • Principes de construction de ces plans – Justification théorique. 2. Analyse des résultats avec Design Expert : • Analyse de corrélation entre Réponses • Modélisation « Factorielle » de chaque Réponse : • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox) Utilisation du modèle : graphes de visualisation et de compréhension du modèle Jour 3 1. Analyse des résultats avec Design Expert : • Suite et fin • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 2. Optimisation des réponses avec Design Expert : • Numérique : Critères de désirabilité – Solutions – Graphes • Graphique : Critères de plage – Graphes • Prédictions : Intervalles de Confiance et de Prédiction • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert : • de la résolution en cours à une résolution supérieure (clarification de concomitances) • (Fold / Semifold / Optimal factorial) • d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse • Questions et réponses. • Présentation et commentaires de problématiques « participants ». Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Coaching Conseil Intra-entreprise Présentiel Distanciel Français Séries temporelles avec R Découvrir Séries temporelles avec R Savoir traiter les séries temporelles avec R Introduction Tendances et composantes saisonnières Indices descriptifs d’une série temporelle Lissages exponentiels Lissage simple Lissage double Estimation et élimination de la tendance et de la saisonnalité Bruit blanc Processus stationnaire Estimation paramétrique de la tendance Estimation non paramétrique Elimination de la tendance et de la saisonnalité Modélisation des séries stationnaires Auto-corrélation partielle Les processus auto-régressifs Les processus en moyenne mobile Les processus mixtes ARMA Tableau des propriétés Estimation et choix de modèle Processus ARIMA et SARIMA Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais Stata ERM : Les modèles de régression étendus Découvrir Stata ERM : Les modèles de régression étendus Apprendre à prendre en compte les différentes sources d’endogénéité dans un modèle de régression 1 modules de 3,5 heures Les différentes sources d’endogénéité et les conséquences sur les propriétés des estimateurs Les méthodes d’estimation pour en tenir compte Une commande synthétique qui permet de considérer ces différentes sources dans un seul modèle Un exercice pratique Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais Stata Lasso Découvrir Stata Lasso Maîtriser les méthodes Lasso (least absolute shrinkage and selection operator) avec Stata pour la prédiction et l’/ou l’inférence sur les paramètres causaux. Cette méthode de régression (généralement utilisée dans les problèmes en grande dimension) consiste à pénaliser la taille absolue des coefficients de régression. Comment sélectionner des variables dans un très grand ensemble de variables potentielles ? Objectif sélection ou prédiction ? Variables quantitatives ou qualitatives La validation croisée La représentation des résultats Quelques prolongements Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Anglais Français Stata Perfectionnement : Stata Av1 – Stata Av4 Découvrir Stata Perfectionnement : Stata Av1 – Stata Av4 Améliorer la maîtrise du logiciel et découvrir des fonctions avancées de Stata Déclarer les données dans différents formats Estimation avancées Programmation. Stata Av1 : Gestion avancée des données Traitement des variables alphanumériques Fusion et agrégation de données Traitement des variables de date et opérateurs de séries temporelles Gestion avancée des graphiques Stata Av2 : Programmation avec Stata Les macros locales et globales Les boucles, les sommes et les compteurs, les variables temporaires Programmer pour reproduire Exemples d’application Stata Av3 : Méthodes d’estimations, tests et prédictions La régression linéaire avec variables qualitatives et interactions Présenter les résultats dans un tableau synthétique et les exporter Tests de spécification et diagnostics Extension à d’autres méthodes d’estimation Stata Av4 : Introduction à l’estimation sur données de panel Structurer et visualiser les données Modèle à effets fixes Modèles à effets aléatoires Quelques extensions Analyse Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Distanciel Présentiel Anglais Français Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2 Découvrir Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2 Traiter et Analyser des séries temporelles avec Stata. Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles Traitement des variables de date et opérateurs de séries temporelles Les graphiques spécifiques pour les séries temporelles Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire Un exercice pratique Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques La régression linéaire à partir de séries temporelles La modélisation ARIMA La prévision Exercice synthétique Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Anglais Chimie / Bio Bioélectrochimie - Concepts et applications Découvrir Bioélectrochimie - Concepts et applications Acquérir les bases en bioélectrochimie. Connaître les outils utilisés en bioélectrochimie. Connaître les applications concrètes des systèmes bioélectrochimiques. Pouvoir collaborer avec des chimistes/biologistes dans le cadre de projets incluant un système bio-électrochimique. Initiation aux systèmes bioélectrochimiques Qu’est-ce qu’un système bioélectrochimique ? Les biofilms électroactifs. Les microorganismes électroactifs modèles. De la sélection anodique aux interactions microbiennes. Les réacteurs : design et matériaux. Les applications réelles Traitement des eaux usées. Traitement d’effluents industriels. Production de molécules d’intérêt. Autres applications. Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français Anglais Biostatistiques avec R Découvrir Biostatistiques avec R Apprendre à utiliser le logiciel R pour analyser des données Être capable de comprendre et choisir le test statistique approprié Savoir représenter des données sous R Comprendre les statistiques Logiques de raisonnement et hypothèses. Notions de base pour utiliser R en statistiques Les fondamentaux du logiciel R. La création de variables et la manipulation de données. Choisir le test approprié Loi normale et homoscédasticité. Comparaison de moyennes Tests paramétriques. Tests non paramétriques. Les analyses multivariées Coefficient de corrélation de Pearson. L’analyse en composantes principales (ACP) Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais Formation FindMolecule : ELN Découvrir Formation FindMolecule : ELN Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche. Comprendre et maîtriser l’environnement FindMolecule. Présentation (5 min) Présentation du formateur ; Résumé du programme de la formation ; Prise de présence Module 1. Utilisation du logiciel (2h55) Section « Mon labo » et paramètres personnels Gestion des paramètres personnels et notifications Création de projets Période de questions Section « Cahier de laboratoire » Le menu de gauche Comment utiliser le menu de gauche Connaître l’information contenue dans ce menu Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages Apprendre à utiliser les différents onglets Comment accéder à l’information qu’ils contiennent Comment gérer les paramètres de l’onglet Réglages Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique) Comment créer une expérience de laboratoire Comment remplir les différentes sections d’une expérience Comment compléter une expérience, de la création à la demande de contre-signature Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience Comment lier deux expériences Comment cloner une expérience Comment accéder aux expériences de nos collègues Période de questions Module 2. Gestion du logiciel (1h00) Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées. Section « Mon labo » Comment ajouter, modifier et désactiver des utilisateurs Comment créer, modifier et supprimer des projets Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte Section « Cahier de laboratoire » Paramètres disponibles Utilisation du rôle « Directeur » Utilisation du rôle « Institution Admin » Période de questions Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français Formation FindMolecule : Inventaire Découvrir Formation FindMolecule : Inventaire Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche. Comprendre et maîtriser l’environnement FindMolecule. Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises Utiliser « Inventaire » et « Cahier de laboratoire » Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire » Présentation (5 min) Présentation du formateur ; Résumé du programme de la formation ; Prise de présence Module 1. Utilisation du logiciel (2h45) Section « Mon labo » et paramètres personnels Gestion des paramètres personnels et notifications Création de projets Section « Inventaire » Inventaire : Comment ajouter des composés et des équipements à l’inventaire Comment rechercher des composés et des équipements Comment consulter les résultats de recherche Apprendre les actions possibles avec les résultats de recherche Scanner : Comment utiliser le mode Scan Comment utiliser le mode Multiscan Comment accéder et consulter la page d’aide Système de gestion de Commandes et Réceptions : Comment commander un composé ou un équipement Comment compléter le formulaire de demande de commande Comment utiliser la section « Mes commandes » Période de question Module 2. Gestion du logiciel (1h10) Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées. Section « Mon labo » Comment ajouter, modifier et désactiver des utilisateurs Comment créer, modifier et supprimer des projets Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte Section « Inventaire » Comment modifier ou supprimer un composé ou un équipement Comment imprimer une étiquette « GHS » Comment utiliser la fonctionnalité « Rapport » Comment gérer et indiquer l’achat et la réception des demandes de commandes Comment créer, gérer, modifier et supprimer des emplacements Comment gérer les paramètres du groupe Comment gérer les paramètres généraux Comment gérer les paramètres du code-barre Comment obtenir une copie de l’inventaire Utilisation du rôle « Institution Admin » Période de questions Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français Formation FindMolecule : Inventaire et ELN Découvrir Formation FindMolecule : Inventaire et ELN Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche. Comprendre et maîtriser l’environnement FindMolecule. Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises Utiliser « Inventaire » et « Cahier de laboratoire » Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire » Présentation (5 min) Présentation du formateur Résumé du programme de la formation Prise de présence Module 1. Utilisation du logiciel (2h55) Section « Mon labo » et paramètres personnel Gestion des paramètres personnels et notifications ; Création de projets ; Section « Inventaire » Inventaire : Comment ajouter des composés et des équipements à l’inventaire ; Comment rechercher des composés et des équipements ; Comment consulter les résultats de recherche ; Apprendre les actions possibles avec les résultats de recherche Scanner : Comment utiliser le mode Scan ; Comment utiliser le mode Multiscan ; Comment accéder et consulter la page d’aide Système de gestion de Commandes et Réceptions : Comment commander un composé ou un équipement ; Comment compléter le formulaire de demande de commande ; Comment utiliser la section « Mes commandes » Section « Cahier de laboratoire » Le menu de gauche Comment utiliser le menu de gauche Connaître l’information contenue dans ce menu Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages Apprendre à utiliser les différents onglets Comment accéder à l’information qu’ils contiennent Comment gérer les paramètres de l’onglet Réglages Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique) Comment créer une expérience de laboratoire Comment remplir les différentes sections d’une expérience ; Comment compléter une expérience, de la création à la demande de contre-signature ; Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience ; Comment lier deux expériences ; Comment cloner une expérience ; Comment accéder aux expériences de nos collègues ; Module 2. Gestion du logiciel (2h) Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées. Section « Mon labo » Comment ajouter, modifier et désactiver des utilisateurs ; Comment créer, modifier et supprimer des projets ; Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte ; Section « Inventaire » Comment modifier ou supprimer un composé ou un équipement ; Comment imprimer une étiquette « GHS » ; Comment utiliser la fonctionnalité « Rapport » ; Comment gérer et indiquer l’achat et la réception des demandes de commandes ; Comment créer, gérer, modifier et supprimer des emplacements ; Comment gérer les paramètres du groupe Comment gérer les paramètres généraux ; Comment gérer les paramètres du code-barre ; Comment obtenir une copie de l’inventaire ; Section « Cahier de laboratoire » Paramètres disponibles Utilisation du rôle « Directeur » Utilisation du rôle « Institution Admin » Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Français Graphiques scientifiques avec PRISM Découvrir Graphiques scientifiques avec PRISM Découvrir l’ensemble des possibilités offertes par PRISM pour obtenir le graphique que l’on souhaite, tracé automatique des courbes d’ajustement compris. 1. Notions de base Présentation des possibilités de PRISM au travers d’exemples permettant aux participants de pointer au formateur les représentations qui les intéressent le plus. Créer un premier graphique pour mieux comprendre les impératifs relatifs aux feuilles de données. La notion de projet (structure d’un fichier PRISM, sections, liens automatiques, les boutons « magiques », etc.). La navigation et la gestion d’un projet PRISM (trouver la bonne feuille de données, renommer les feuilles, geler les feuilles, réordonner les feuilles, fusionner et fractionner des projets). Les feuilles d’information. 2. Les feuilles de données : Concepts essentiels Présentation des huit types de feuilles de données. Column : Test pour les échantillons appariés et non appariés. Identifier les valeurs aberrantes. XY : analyse de corrélation. Grouped : ANOVA bidirectionnelle. Contingency : Chi-carré. Survival : Kaplan-Meier et test du log-rank. Parts of whole : diagramme circulaire. Nested : Nested t-test. Multiple variables : analyse de plusieurs variables simultanément. 3. Graphiques avec PRISM Création et modification des graphiques (graphiques multiples à partir de la même table, modification des propriétés, etc.). Modification des barres et symboles (formats et couleurs des lignes et symboles, changement de l’aspect d’une donnée). Les axes (échelles, limites, ruptures, numérotation, titres, montrer et cacher les graduations). Les axes logarithmiques. La maîtrise des couleurs. Tables encapsulées dans les graphiques. Les légendes. Dispositions sur la page (layouts). 4. Importation et exportation de données Méthodes rapides d’importation de données comme alternative au copier-coller. Exportations aux formats exigés. 5. Analyses et graphiques répétitifs (templates) et remarques finales Analyse Chimie / Bio Intra-entreprise Distanciel Présentiel Français Anglais Laby formation initiale : utilisateur – administrateur Découvrir Laby formation initiale : utilisateur – administrateur Intérêts et objectifs de la transformation numérique Prendre en main l’utilisation du logiciel LABY Prendre en main l’administration des modules du logiciel LABY Définir les interactions avec un service support Maitriser les droits d’accès Assurer ses back-ups Module 1 : Gestion de la recherche et suivi de la qualité – 3h30 Présentation des participants, contexte, objectif et agenda de formation Module projet et cahier de laboratoire numérique Etapes clés / Blocs d’activités Module Gestion Électronique de Documentation Module Bibliographie Recherche d’information Module 2 : Paramétrage et gestion du laboratoire – 3h30 Module Utilisateurs Module Tiers Module Localisation Module Unités Module Stocks Module Préparation de lots Module Équipements Module Temps passés Module 3 : Administration du logiciel Laby – 3h30 Définition des rôles de(s) l’administrateur(s) Paramétrages mail et serveur Module des Droits Module modèles de notebooks Module modèles de tableaux de résultats Module modèles des étiquettes Backups Laby Support Module 4 : Consolidation des acquis – 3h30 Ce module est consacré à travailler sur des exemples apportés par les apprenants. Ceux-ci présentent et analysent eux-mêmes leurs données, sous la supervision du formateur, à la lumière des acquis. Chimie / Bio Intra-entreprise Distanciel Présentiel Français Séquençage haut débit et écologie microbienne Découvrir Séquençage haut débit et écologie microbienne Comprendre le séquençage génomique à haut débit. Être capable de choisir la technologie adaptée à son projet. Connaître les outils bio-informatiques utilisés. Connaître les analyses statistiques possibles. Méthodes moléculaires Séquençage HTS. Métagénomique ciblée. Métagénomique globale. Analyses RNA-seq. CRISPR/Cas9. Applications en écologie microbienne Extraction d’ADN microbien. Analyse bioinformatique des séquences. L’analyse de données : diversité, cluster, réseau, core-microbiome Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français Communication et rédaction scientifique Communicating science to a wider audience Découvrir Communicating science to a wider audienceCe stage pour des chercheurs scientifiques et toute personne travaillant dans la communication scientifique de fournir aux stagiaires les moyens et techniques journalistiques, écrits et oraux, pour simplifier leurs messages complexes, en utilisant des métaphores plus faciles à comprendre et en évitant le langage aride des experts. En résumé, comment formuler les « headlines » dynamiques, comment synthétiser et simplifier ces messages, et vulgariser afin qu’ils puissent être compris par le plus grand nombre. Journée 1 Définition du concept de « populaire ». La notion du populaire aujourd’hui n’est pas le même que celle d’hier car les médias ont énormément évoluées. Diapos. Les médias comme vecteur de savoir. Les meilleurs films de science-fiction, livres, etc. Pourquoi ces films, livres, etc. en particulier ? Discussion sur ce que les gens trouvent attirant dans les présentations – pourquoi veulent -ils toucher un public plus grand ? Pourquoi votre travail est-il important ? Qu’est-ce qu’il va changer ? Le cible ? Pourquoi le public pourrait être intéressé ? « Storytelling » – comment construire un narrative – début – milieu – fin. L’importance des « chutes ». « Highlights » – Quels sont les « highlights » de votre travail. Création de 4/5 phrases dynamiques. Liste de métaphores – inventer des métaphores. Lecture de textes de « Nature » et l’extraction de mots clés ayant de l’impact. Leur sens ? Pouvez-vous les utiliser ? Les titres – la création de titres qui retient l’attention – règles – mots clés – verbes clés – pensez en termes des mots clés et les verbes clés de votre travail – les verbes créent le dynamisme. Une analyse des « news highlights » de Nature. Interviewez vos collègues de stage et rédigez des courts rapports sur leur travail. Inventez des titres courts pour les « highlight reports ». Les structures des paragraphes. Choix d’une structure ou une combination des structures pour la rédaction d’un blog à mettre en ligne sur Facebook, par exemple. Exemples de Nature et New Scientist. Combinez les 6 questions – qui – quoi – quand – comment – où – pourquoi et l’utilisez dans l’article du blog. Trouvez une image. L’importance des images. Rédaction d’un texte d’environ 500/600 mots sur votre propre travail. Segmentez-le en paragraphes. Ecrire la légende de l’image. Montrez-la à 4 autres stagiaires pour obtenir leurs opinions afin d’améliorer le blog. Journée 2 La passion dans l’expression orale. L’idée de base d’une présentation orale en 180 secondes (3MT). Prononciation – intonation. Présentation sur comment donner une présentation. Langage corporel. La projection de soi – contrôler le trac. Feuille de minutage – les mots qu’il faut et quand. Comment condenser une thèse de 180 pages en seulement 2 pages? Combien de informations pouvez-vous communiquer en 180 secondes – 133 à 180 mots/minute donc ~400 à 540 mots en 3 minutes. Travail en groupes afin de structurer les présentations. Choix des métaphores – analogies. Créer 1 diapo PowerPoint pour toute la présentation. Discussion en groupes sur votre message. Point clés et comment les mettre en avant.Chronométrage et synchronisation. Présentation de présentations ayant gagnés des prix. Chaque stagiaire donne sa présentation au moins deux fois. Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Anglais Communication orale en anglais pour conférences scientifiques Découvrir Communication orale en anglais pour conférences scientifiques Être capable de parler en anglais avec confiance en soi devant un public scientifique Savoir utiliser son corps (respiration, position, posture, gestes) pour rythmer son discours Savoir se projeter dans l’espace et attirer l’attention des spectateurs en donnant de l’autorité à son discours Identifier ses points faibles et forts avec l’aide des autres participants Savoir synthétiser de l’information pour la rendre plus dynamique Savoir utiliser sa présentation comme tremplin pour s’exprimer et non pas comme une béquille Préparer une argumentation pour étayer son discours et répondre aux questions rapidement Être plus spontané en anglais et gérer les questions. Journée 1 Introduction et objectifs du stage Parler d’un sujet avec conviction – communiquer l’intérêt Exercices de prononciation – intonation Présentation des qualités requises pour une bonne communication orale par l’animateur Pourquoi ce vous voulez dire est important – pour qui ? Exprimer cette importance Le fond du problème – décrire le contexte de votre recherche – 3/4 diapositifs PowerPoint Identification des faiblesses : clarté, cadence du discours trop lente/rapide, … L’utilisation du corps (langage corporel) pour aider le discours Séance de débat sur des sujets controversés – réagir aux propos de l’autre – mettre en avant ses propres idées Expliquer sa méthode sur le tableau – mettre en phase ce qu’on dit avec ce qu’on fait avec son corps (dessiner – écrire – regarder) Répondre aux questions Journée 2 Exercices de prononciation – intonation Présentation par l’animateur L’importance de l’autorité dans la prise de parole en public Comment synthétiser son discours Présenter ses résultats – comparaisons – contrastes – causes et effets Utilisation de courbes, histogrammes, … mise en exergue des points importants Identification des difficultés de communication non résolus – comment les contourner Les perspectives de sa recherche – spéculer sur les suites Nouvelle présentation par l’animateur Communication finale – chaque stagiaire dois parler pour au moins 15 minutes sans arrêter sur leur travail avec un support PowerPoint, puis répondre aux questions des autres participants et le formateur. Le temps prévu pour chaque activité dépend de l’avancement de chaque participant. Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Anglais Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications Découvrir Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications Découvrer le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative et bénéficier du potentiel des outils d’IAG Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Classifier les outils d’intelligence artificielle générative selon les médias mis en œuvre (text-to-text, text-to-image, etc.), et sélectionner le bon outil pour un cas d’usage précis. Produire des activités pédagogiques telles que des notes de cours, des guides d’étude, ou des résumés de chapitres pour aider les étudiants dans leur apprentissage. Concevoir des examens et des quiz à partir du contenu de formation développé pour les étudiants et gagner du temps dans la préparation de vos cours Générer des scénarios ou cas d’étude pour des travaux de groupe, basés sur des sujets d’actualité ou des avancées scientifiques pour décupler les possibilités d’animations de cours (contenu, ateliers de groupes, etc.) Adapter son enseignement et préparer ses apprenants à la révolution de l’IAG Partie 1 : les bases de l’IA et du prompt engineering (1h30) – Décrire le principe de fonctionnement général d’une intelligence artificielle générative – Découvrir le prompt engineering Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques) – Décrire les principaux modèles de prompt engineering – Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement – Créer plusieurs ressources : résumé, articles, traductions, présentations, etc. Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques) – Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter – Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format – Échanger autour des questions qui posent questions : éthique, droits d’auteur, sécurité… Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications Découvrir Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications Décrire le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative. Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Synthétiser des articles et contenus scientifiques en produisant des résumés concis qui mettent en évidence les points clés et les conclusions principales. Améliorer sa veille technologique en configurant, personnalisant et automatisant des outils d’intelligence artificielle générative pour surveiller et résumer les dernières recherches publiées dans des domaines spécifiques. Identifier les points clés d’un domaine scientifique spécifique et détecter les sujets de recherche manquants nécessaires pour compléter un modèle théorique existant. Traduire des articles Partie 1 : les bases de l’IA et du prompt engineering (1h30) – Décrire le principe de fonctionnement général d’une intelligence artificielle générative – Découvrir le prompt engineering Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques) – Décrire les principaux modèles de prompt engineering – Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement – Créer plusieurs ressources : résumé, articles, traductions, présentations, etc. Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques) – Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter – Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format – Échanger autour des enjeux & bouleversements de l’IAG pour le secteur : éthique, droits d’auteur, sécurité… Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français Mettre en place sa veille scientifique et technologique dans un projet innovant Découvrir Mettre en place sa veille scientifique et technologique dans un projet innovant Réussir la mise en œuvre de la veille scientifique, technique et technologique d’un projet. Connaître le cycle de veille et organiser son plan de veille. Organiser les différentes étapes de la veille concrètement. Se familiariser avec les bases du cycle global de la veille scientifique, présentation théorique et présentation des projets individuels (30 min) Identifier les étapes clés du processus de veille scientifique, présentation et exercice pratique (30 min) Méthodologie de recherche d’informations scientifiques, techniques et technologiques : exposé théorique et exercice de mise en pratique (30 min) Bien définir ses besoins, son périmètre et ses axes de recherche exercice pratique : exercice de mise en pratique (1h30) Organiser une veille ciblée cas concret (30 min) Bien choisir ses sources : les différents moteurs de recherche scientifiques, les bases de données et la littérature grise exercice , fiche technique, fiches conseil (1h30) Choisir et analyser les informations importantes au projet présentation théorique (30 min) Evaluer et gérer les informations (15 min) Diffuser sa veille : présentation (30 min) Point sur les outils de veille : présentation (15 min) Ajuster et mener des actions correctives sur le projet : théorie (30 min) Communication et rédaction scientifique Publication Intra-entreprise Inter-entreprise Présentiel Distanciel Français Rédaction d’articles scientifiques en anglais Découvrir Rédaction d’articles scientifiques en anglais Comprendre et savoir utiliser l’approche anglo-saxonne dans la rédaction d’articles scientifiques Mettre en pratique les enseignements sur le champ sur son propre travail Comprendre l’importance du lecteur et donc de la clarté et précision de son message Comprendre qu’il faut penser dans la langue dans lequel on écrit pour le rendre plus compréhensible Savoir mieux utiliser la grammaire et la syntaxe dans ses écrits pour les rendre plus clairs Maîtriser la structure de l’article et donc mieux structurer son discours Avoir une trame et une boite à outils réutilisable pour d’autres articles Jour 1 Présentation du stage et définition des objectifs de chaque stagiaire L’utilisation du résumé pour décrire la méthode suivie pour le stage Comment penser en anglais pour écrire directement sans passer par le français Chaque phrase doit remplir une fonction précise La logique de l’enchainement des pensées Exercices d’analyse et simplification de textes complexes en anglais Exercices sur les prépositions et « phrasal verbes » Exercice avec un « abstract » réel de la revue « Nature » Les stagiaires rédigent leurs propres abstracts Aide et correction par le formateur L’introduction, ses composants, ses objectifs et sa structure : contexte de la recherche, références, méthode utilisée, … Les conjugaisons nécessaires – exercices. L’importance de la chronologie pour les références La mise en avant de l’objectif de l’article dans l’introduction : l’importance de l’étude Les stagiaires choisissent et rédigent au choix une des quatre parties de l’introduction Aide et correction par le formateur Jour 2 Identification des erreurs typiques d’anglais faites par des chercheurs dans des textes scientifiques La syntaxe anglaise, les différences entre la syntaxe anglaise et française Différences de conception culturelle Analyse et repérage des erreurs dans des textes écrits par d’autres chercheurs Exercices La méthode : l’importance des conjugaisons et le passif Exemples des méthodes déjà publiées Chaque stagiaire rédige sa méthode Les stagiaires lisent les méthodes de leurs collègues en essayant d’identifier leurs erreurs éventuelles, syntaxe difficile à comprendre, … Les résultats L’importance des comparaisons, oppositions et causes et effets et le langage utilisé Exemples des résultats dans des publications Grammaire et exercices Vocabulaire pour décrire l’évolution des phénomènes observés Le langage des figures, illustrations, graphiques, … comment les présenter et les décrire Choix des figures par les stagiaires Rédaction des descriptions Jour 3 Reprise des résultats. Aide et correction par le formateur. La discussion L’utilisation de l’introduction comme gabarit pour la discussion pour faciliter sa rédaction Les réponses attendues dans la discussion par rapport aux questions posées dans l’introduction Les adverbes d’opposition, de débat, de prise en compte L’ajout des informations supplémentaires Discussion entre les stagiaires afin qu’ils puissent mieux identifier les points difficiles dans leurs propres discussions et clarifier leurs idées Rédaction d’une partie de la discussion au choix Aide et correction par le formateur La conclusion et perspectives La spéculation, verbes modaux, structure, synthèse Rédaction de la conclusion Lettres à l’éditeur et aux « reviewers Exercice – test ludique Communication et rédaction scientifique Intra-entreprise Inter-entreprise Présentiel Distanciel Anglais Data Science Environnement de développement en Data Science Découvrir Environnement de développement en Data Science Comprendre l’écosystème de la data science Connaître les outils afférents à la réalisation d’un projet en data science. JOUR 1 L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL Le contrôle de révision et travail collaboratif avec Git La méthodologie de gestion d’un projet en data science Les principes de base du génie logiciel et bonnes pratiques JOUR 2 Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data) L’architecture distribuées et base de données, map-reduce, big data, Apache Spark Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais Initiation au langage de R Découvrir Initiation au langage de R Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage R1 : Premiers pas dans R Introduction Saisir une commande dans la console Ecrire un script propre, structuré et commenté Créer, modifier, visualiser et effacer un objet Manipuler les différents types de données et structures des données Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions R2 : Importer, contrôler et exporter des tableaux de données Afficher et modifier le répertoire de travail Importer des données contenues dans un fichier .csv Contrôler les types de ses variables et les modifier si besoin Les variables qualitatives : les facteurs Contrôler les données manquantes Exporter un tableau de données dans un fichier .csv R3 : Valorisation numérique des données Manipuler son jeu de données (sélection de variables, de lignes …) Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information Statistiques descriptives, comptages, tableau croisé Agrégation de données (statistiques par groupe d’observations) R4 : Valorisation graphique des données Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …) Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …) Enregistrer un graphique Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Distanciel Anglais Français L'Analyse de données avec R Découvrir L'Analyse de données avec RSavoir manipuler les données et en tirer de l’information avec R. Statistiques introductives Statistique univariée Statistique bivariée Introduction à ggplot2, la grammaire des graphiques Graphiques univariés et bivariés avec ggplot2 Données pondérées Statistiques intermédiaires Intervalles de confiance Comparaisons Définir un plan d’échantillonnage complexe Régression linéaire Régression logistiques binaire, multinomiale et ordinale Analyse en correspondances multiples Classification ascendante hiérarchique Statistiques avancées Effets d’interaction dans un modèle Multi-colinéarité dans la régression Analyse de survie Analyse de séquences Analyse de réseaux Analyse spatiale Data Science Open Source Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais Machine Learning Avancé Découvrir Machine Learning Avancé Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif. À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée. JOUR 1 L’exploration avancées des données : DBSCAN, algorithme de clustering de données non supervisées Manifold Learning JOUR 2 Gaussian Mixture Modelling (GMM) Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS) Support Vector Machine (SVM) JOUR 3 Random Forest et Gradient Boosting Machines L’estimation et la validation croisée par Bootstraping Le filtrage collaboratif et le système de recommandation Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français Machine Learning bases Découvrir Machine Learning bases Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining. À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs. JOUR 1 Introduction aux méthodes non supervisées : L’analyse en composantes principales (PCA) La classification automatique (k-means), Les règles d’association (apriori, eclat) Introduction aux méthodes supervisées : Les modèles de régression linéaire et logistique avec régularisation (ridge régression), Les arbres de décision (régression et classification) JOUR 2 Les méthodes standards pour mettre en œuvre des modèles prédictifs : Feature engineering : apprendre à réduire la complexité d’un problème, Sélection de variables, Validation croisée, Calibration d’un modèle prédictif Text Mining et web scraping Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français Outils avancés - Python Découvrir Outils avancés - Python Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly… JOUR 1 Les traitements avancés des données : La librairie numpy : les fonctions avancées (views, slices) l’interface avec scipy La librairie pandas : L’importation de sources de données externes, L’agrégation de données, Le reshaping, L’indexation, La fusion de sources de données La librairie statmodels : La régression simple et multiple, Les tests des coefficients de régression, Le diagnostic du modèle, La prédiction ponctuelle et par intervalle Le traitement des chaînes de caractères, regex Le traitement des dates et gestion des séries chronologiques JOUR 2 Les générateurs, itertools, lazy evaluation L’interface base de données (SQL, NoSQL) Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap) Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Français Anglais Outils avancés - R Découvrir Outils avancés - R Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly. À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a JOUR 1 L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven} Les outils pour optimiser les traitements de données, {data.table} et {dplyr} : La manipulation avancée des data frames, L’aggrégation de données, Le reshaping, L’indexation, La fusion de sources de données La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} : La régression simple et multiple, Les tests des coefficients de régression, Le diagnostic du modèle, La prédiction ponctuelle et par intervalle JOUR 2 Le traitement des chaînes de caractères, regex Le traitement des dates et gestion des séries chronologiques L’approche fonctionnelle et lazy evaluation L’interface base de données (SQL, NoSQL) Les fonctionnalités graphiques avancées avec le package {ggplot2} : Les graphiques en trellis, Les distributions statistiques, Représentation de données avec le heatmap Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly} Analyse Data Science Open Source Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais Outils de base - Python Découvrir Outils de base - Python Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib. JOUR 1 L’environnement de travail : Python 2 et 3.x, La présentation des différentes consoles et le débogage en Python : Anaconda, Jupyter, Spyder Les types de données : listes, dictionnaires Les structures de contrôle Les fonctions, méthodes et packages JOUR 2 La préparation et le nettoyage des données : numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire) scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base) Les distributions de probabilité et statistiques univariées simples Fonctions graphiques de base (scatterplot, box plot, histogrammes) L’écriture de scripts simples Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais Outils de base - R Découvrir Outils de base - R Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}. À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base. JOUR 1 L’environnement de travail : Présentation de R 3.x Présentation de RStudio Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples Les structures de contrôle de base de R Les fonctions et les packages importants pour la manipulation de données JOUR 2 Les fonctionnalités de base : Les fonctions numériques simples, Les générateurs de nombre aléatoire Les distributions de probabilité et statistiques univariées Les fonctions scientifiques {stats} et les tests statistiques de base La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram) L’écriture de scripts simples de programmation avec R Analyse Data Science Open Source Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais Séries temporelles avec R Découvrir Séries temporelles avec R Savoir traiter les séries temporelles avec R Introduction Tendances et composantes saisonnières Indices descriptifs d’une série temporelle Lissages exponentiels Lissage simple Lissage double Estimation et élimination de la tendance et de la saisonnalité Bruit blanc Processus stationnaire Estimation paramétrique de la tendance Estimation non paramétrique Elimination de la tendance et de la saisonnalité Modélisation des séries stationnaires Auto-corrélation partielle Les processus auto-régressifs Les processus en moyenne mobile Les processus mixtes ARMA Tableau des propriétés Estimation et choix de modèle Processus ARIMA et SARIMA Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais Économétrie / Finance Analyse avancée des séries temporelles avec EViews Découvrir Analyse avancée des séries temporelles avec EViews Cette formation avancée d’une journée est construite de manière à couvrir les aspects fondamentaux de l’analyse des séries temporelles avec EViews, en se concentrant sur les modèles univariés et multivariés. Il combine des rappels des concepts théoriques avec des exercices pratiques mis en oeuvre avec EViews pour améliorer les compétences des participants en matière de modélisation et de prévisions avancées des séries temporelles. Le programme peut être adapté sur deux jours dans le cas où les participants souhaitent renforcer leurs compétences dans le domaine des méthodes d’analyse des séries temporelles. Il peut être également être ajusté en fonction des compétences et des besoins des participants et du rythme souhaité d’apprentissage. Session 1 : Rappel des notions de base sur les séries temporelles et mise en œuvre avec EViews (1h30) 1. Introduction à l’analyse des séries temporelles (30mn) a. Définition et importance des séries temporelles b. Application de l’analyse des séries temporelles 2. Interface et configuration EViews (30mn) a. Revue de l’interface b. Mise en place d’un projet d’analyse des séries temporelles c. Chargement et organisation des données 3. Exploration préalable des données (30mn) a. Statistiques descriptives b. Exploration graphique c. Identifier les tendances et les modèles Session 2 : Analyse de séries temporelles univariées (1h30) 1. Stationnarité et différenciation (30mn) a. Comprendre la notion de stationnarité b. Différencier pour atteindre la stationnarité c. Mise en œuvre dans EViews 2. Modèles ARIMA (1h) a. Introduction aux modèles ARIMA b. Identification des paramètres c. Mise en œuvre dans EViews : construction et interprétation Session 3 : Analyse de séries temporelles multivariées (2h) 1. Les modèles VAR (1h) a. Introduction b. Estimation avec EViews c. Les fonctions de réponse impulsionnelle : mise en œuvre et lecture des résultats 2. Modèles de cointégration et à correction d’erreurs (ECM) (1h) a. Comprendre la notion de cointégration b. Mise en œuvre et interprétation avec EViews Session 4 : Prévision et évaluation de modèles (2h) 1. Prévision de séries temporelles (1h) a. Présentation des méthodes de prévision b. Mise en œuvre avec EViews c. Évaluation de la précision des prévisions 2. Évaluations et diagnostic du modèle (30mn) a. Tests de diagnostics b. Interprétation des résultats et examen des résidus du modèle c. Des modèles affinés pour de meilleures prévisions : combinaison de méthodes 3. Exercice pratique (30mn) Économétrie / Finance Statistiques théoriques et appliquées Coaching Intra-entreprise Distanciel Présentiel Français Découverte du logiciel Stata : Stata Deb1 – Stata Deb4 Découvrir Découverte du logiciel Stata : Stata Deb1 – Stata Deb4 Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations. Stata Deb1 : A la rencontre du logiciel Présentation de l’environnement du logiciel Comment paramétrer une session Stata pour être efficace La syntaxe générale d’une commande de Stata Savoir utiliser l’aide pour devenir autonome Exemple commenté d’une session Stata pour en appréhender les possibilités Importer des données, les décrire et les visualiser : une première approche Un premier Exercice Stata Deb2 : Travailler ses données Exploration d’un fichier de données : le conditionnel if, by et in Manipuler des variables : création, recodage, labels et plein d’autres astuces Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées Un exercice pour se tester Stata Deb3 : Statistiques Descriptives, Tables et Graphiques Statistiques descriptives Tables statistiques synthétiques Analyse univariée Une introduction à l’analyse de la variance Les graphiques avec Stata Un exercice synthétique Stata Deb4 : Une introduction à la régression Régression linéaire : estimation, post-estimation, diagnostics et tests Régression logistique : estimation, post-estimation, diagnostics et tests Découverte de la programmation : les boucles Exercice synthétique (suite) Analyse Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais Introduction à EViews Découvrir Introduction à EViews Ce programme sur deux jours fournit une introduction à EViews, couvrant les fonctionnalités essentielles et les applications pratiques pour l’analyse et la prévision des données. Les participants doivent repartir avec une maîtrise du logiciel et la capacité de l’appliquer à leur travail. Des ajustements peuvent être proposés en fonction des connaissances préalables des participants et de leurs besoins spécifiques. Session 1 : Introduction à EViews et à son environnement (3h30) 1. Introduction et Aperçu a. Présentation du formateur et des participants b. Bref aperçu des objectifs de la formation 2. Premiers pas avec EViews a. Présentation détaillée de l’interface b. Options de navigation et de personnalisation de base 3. Travailler avec des workfiles a. Création, ouverture et sauvegarde b. Comprendre les différents types de workfiles c. Options d’importation et d’exportation des données 4. Gestion des données dans EViews a. Exploration et nettoyage des bases de données b. Transformation des variables c. Gestion des données manquantes 5. Exercices pratiques Session 2 : Notions de base sur la manipulation des données et des séries chronologiques (3h30) 1. Statistiques descriptives a. Calcul des statistiques de base b. Représentation graphique des données c. Techniques d’exploration des données 2. Analyse des séries chronologiques a. Comprendre la nature des séries chronologiques b. Représentations graphiques spécifiques c. Analyses de base des séries chronologiques 3. La régression : premiers pas avec Eviews a. Introduction à l’analyse de régression b. Mise en œuvre et interprétation des résultats 4. Exercices pratiques Session 3 : Les méthodes d’analyse les plus usuelles (3h30) 1. La régression : pour aller plus loin avec EViews a. Mettre en œuvre plusieurs régressions b. Tests de diagnostics 2. Les méthodes de prévision a. Techniques de prévision des séries chronologiques b. Mise en œuvre de modèles de prévision c. Évaluation de la précision des prévisions Session 4 : Présentation des données, rapports et synthèse (3h30) 1. Présentation des données et graphiques a. Création et personnalisation de tableaux et de graphiques b. Exportation de résultats vers d’autres formats 2. Générer des rapports dans EViews a. Présentation des fonctionnalités de création de rapports b. Création d’un rapport de base 3. Études de cas et exercices pratiques a. Application d’EViews à une étude de cas réelle b. Présentation des résultats par les participants 4. Synthèse a. Récapitulatif et concepts clés b. Bonnes pratiques et ressources supplémentaires c. Commentaires des participants et remarques finales Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2 Découvrir Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2 Traiter et Analyser des séries temporelles avec Stata. Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles Traitement des variables de date et opérateurs de séries temporelles Les graphiques spécifiques pour les séries temporelles Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire Un exercice pratique Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques La régression linéaire à partir de séries temporelles La modélisation ARIMA La prévision Exercice synthétique Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Anglais Ingénierie et développement Environnement de développement en Data Science Découvrir Environnement de développement en Data Science Comprendre l’écosystème de la data science Connaître les outils afférents à la réalisation d’un projet en data science. JOUR 1 L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL Le contrôle de révision et travail collaboratif avec Git La méthodologie de gestion d’un projet en data science Les principes de base du génie logiciel et bonnes pratiques JOUR 2 Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data) L’architecture distribuées et base de données, map-reduce, big data, Apache Spark Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais Origin : Analyse de pics Découvrir Origin : Analyse de pics Détection et suppression de ligne de base Détection de pics Déconvolution de pics Déconvolution en masse à l’aide de thèmes de calculs 1. Présentation des différents outils relatifs à l’analyse de pic 2. Traitement de la ligne de base 3. Détection de pics 4. Intégration de pics 5. Déconvolution de pics 6. Déconvolution en masse à l’aide de thèmes de calculs Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais Origin : Batch processing Découvrir Origin : Batch processing Réaliser des filtres d’import Automatiser le traitement des données Réaliser des rapports personnalisés et des modèles d’analyse Générer des tables de synthèse d’analyse 1. Filtres d’import 2. Enchainement d’opérations et recalcul automatique 3. Rapports personnalisés 4. Traitement ne masse par drag and drop 5. Traitement en masse avec l’outil Batch Processing 6. Optimisation des calculs avec l’App Distributed Batch Processing 7. Tables de synthèse Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français Origin : Fonctions de base Découvrir Origin : Fonctions de base Importer des données de formats variés Réaliser des graphiques et les personnaliser (styles, templates, thèmes) Traiter les données et automatiser les calculs Réaliser des ajustements de données, créer ses propres fonctions d’ajustement Détecter et déconvoluer des pics 1. Graphiques Graphiques de base Tracés en groupe Personnalisation des courbes et des axes Graphiques statistiques Axes spéciaux (radar, coordonnées polaires) Graphiques de surface et 3D Batch plotting 2. Importation de données Importation de fichiers ASCII, CSV, Excel Personnalisation, import en masse 3. Calculs et manipulation de données Calculs entre colonnes Extraction et réorganisation de données Masquage et filtrage de données Statistiques descriptives Intégration, dérivation, inter/extrapolation Traitement du signal Sauvegarde et réutilisation de thèmes de calculs 4. Ajustement Ajustement linéaire, polynomial et non linéaire Création et édition de fonctions d’ajustement Ranking de fonctions d’ajustement 5. Analyse de pics Détection et intégration de pics Déconvolution de pics 6. Traitement en masse Modèles d’analyse, rapports personnalisés Import et traitement en masse 7. Ajout de fonctionnalités avec les Apps 8. Reconstruction de données à partir de fichiers image Analyse Ingénierie et développement Inter-entreprise Intra-entreprise Présentiel Français Anglais Origin : Graphiques avancés Découvrir Origin : Graphiques avancés Maitrise des possibilités de personnalisation des graphiques et stratégies de réalisation de graphiques complexes 1. Tirer le meilleur parti des templates, clones et thèmes 2. Stratégies de réalisation de graphiques complexes 3. Travaux à partir de cas concrets des participants Analyse Ingénierie et développement Intra-entreprise Présentiel Anglais Français Origin : Programmation Découvrir Origin : Programmation Maîtriser des fonctions de base de la programmation: accès aux différents objets d’Origin, variables, fonctions, boites de dialogue. 1. Environnement Script Window, Command Window et Code Builder Déclenchement de scripts à partir de boutons de raccourci Déclenchement de scripts par des événements 2. Types de variables 3. Accès aux objets Origin Accès aux données issues de workseet Graphiques et personnalisation Objets graphique 4. Opérateurs et calculs 5. Structures des scripts 6. Fonctions 7. Boites de dialogues Analyse Ingénierie et développement Intra-entreprise Présentiel Français Anglais Plans factoriels avec Design Expert Découvrir Plans factoriels avec Design ExpertApprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert Jour 1 1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ; 2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité 3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement 4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses 5. Estimation des coefficients d’un polynôme : Cas général : effets plus ou moins fortement redondants ; régression linéaire multiple nécessaire ; Orthogonalité : effets parfaitement indépendants ; estimation directe possible 6. Typologie des plans d’expériences proposés par Design-Expert : • Plans « standards » (généralement orthogonaux) : Pas de contrainte sur : le domaine expérimental, le nombre d’essais, … • Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) : – Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution – Plans de Plackett & Burman (matrices de Hadamard) • Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux • Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) : • plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV » Jour 2 Avec Design Expert : 1. Plan Factoriel – Traitement d’exemple(s) : • Création d’un Plan Factoriel avec Design Expert : • Catalogue – Guide – Résumé • Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur • Comparaison des divers types de plans pour un problème donné : Plan de Plackett & Burman (criblage de facteurs influents) Plan factoriel fractionnaire (modèle avec interactions) Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) : « Min Run Res V » (modèle avec interactions) « Min Run Res IV » (modèle sans interaction) • Principes de construction de ces plans – Justification théorique. 2. Analyse des résultats avec Design Expert : • Analyse de corrélation entre Réponses • Modélisation « Factorielle » de chaque Réponse : • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox) Utilisation du modèle : graphes de visualisation et de compréhension du modèle Jour 3 1. Analyse des résultats avec Design Expert : • Suite et fin • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 2. Optimisation des réponses avec Design Expert : • Numérique : Critères de désirabilité – Solutions – Graphes • Graphique : Critères de plage – Graphes • Prédictions : Intervalles de Confiance et de Prédiction • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert : • de la résolution en cours à une résolution supérieure (clarification de concomitances) • (Fold / Semifold / Optimal factorial) • d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse • Questions et réponses. • Présentation et commentaires de problématiques « participants ». Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Coaching Conseil Intra-entreprise Présentiel Distanciel Français Management du changement Innover avec le design thinking Découvrir Innover avec le design thinkingComprendre le processus de Design Thinking afin de l’utiliser pour innover et résoudre des problèmes complexes. 1. Discover : à la découverte du challenge à relever 2. Define : définir avec précision le problème à résoudre 3. Develop : imaginer la solution la plus pertinente 4. Deliver : construire la solution et recueillir des feedbacks selon une démarche itérative Management du changement Process et métiers des laboratoires Intra-entreprise Coaching Distanciel Présentiel Français Management Agile des projets scientifiques Découvrir Management Agile des projets scientifiques Objectifs pédagogiques: Aborder l’état d’esprit et les concepts de l’Agilité Pourquoi passer à l’Agilité ? Introduction à l’Agilité Le vocabulaire de l’Agilité Les principes de Scrum Management du changement Process et métiers des laboratoires Coaching Intra-entreprise Distanciel Présentiel Français Open Source Biostatistiques avec R Découvrir Biostatistiques avec R Apprendre à utiliser le logiciel R pour analyser des données Être capable de comprendre et choisir le test statistique approprié Savoir représenter des données sous R Comprendre les statistiques Logiques de raisonnement et hypothèses. Notions de base pour utiliser R en statistiques Les fondamentaux du logiciel R. La création de variables et la manipulation de données. Choisir le test approprié Loi normale et homoscédasticité. Comparaison de moyennes Tests paramétriques. Tests non paramétriques. Les analyses multivariées Coefficient de corrélation de Pearson. L’analyse en composantes principales (ACP) Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais Environnement de développement en Data Science Découvrir Environnement de développement en Data Science Comprendre l’écosystème de la data science Connaître les outils afférents à la réalisation d’un projet en data science. JOUR 1 L’environnement unix, l’interaction avec un shell, les outils open source (sed, awk, grep, jq, csvkit, etc.), R et Python, SQL et NoSQL Le contrôle de révision et travail collaboratif avec Git La méthodologie de gestion d’un projet en data science Les principes de base du génie logiciel et bonnes pratiques JOUR 2 Le recueil et traitement de l’information (plans d’expérience et essais cliniques, enquête et sondages, données web, open data) L’architecture distribuées et base de données, map-reduce, big data, Apache Spark Data Science Ingénierie et développement Open Source Intra-entreprise Présentiel Distanciel Français Anglais Initiation au langage de R Découvrir Initiation au langage de R Découvrir le logiciel R et s’initier aux premiers rudiments de ce langage R1 : Premiers pas dans R Introduction Saisir une commande dans la console Ecrire un script propre, structuré et commenté Créer, modifier, visualiser et effacer un objet Manipuler les différents types de données et structures des données Les objets R : vecteurs, facteurs, matrices, tableaux, listes, data frames, fonctions R2 : Importer, contrôler et exporter des tableaux de données Afficher et modifier le répertoire de travail Importer des données contenues dans un fichier .csv Contrôler les types de ses variables et les modifier si besoin Les variables qualitatives : les facteurs Contrôler les données manquantes Exporter un tableau de données dans un fichier .csv R3 : Valorisation numérique des données Manipuler son jeu de données (sélection de variables, de lignes …) Valorisation numérique : faire connaissance avec le jeu de données, résumer et quantifier l’information Statistiques descriptives, comptages, tableau croisé Agrégation de données (statistiques par groupe d’observations) R4 : Valorisation graphique des données Création de graphiques de base : histogramme, nuage de points, boîte à moustaches, diagramme en bâtons, diagramme circulaire Modifier les différentes options de base des graphiques (couleur, titre, type des points et des lignes, taille, …) Ajouter des éléments dans un graphique (points, lignes, segments, légendes, …) Enregistrer un graphique Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Distanciel Anglais Français Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications Découvrir Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications Découvrer le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative et bénéficier du potentiel des outils d’IAG Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Classifier les outils d’intelligence artificielle générative selon les médias mis en œuvre (text-to-text, text-to-image, etc.), et sélectionner le bon outil pour un cas d’usage précis. Produire des activités pédagogiques telles que des notes de cours, des guides d’étude, ou des résumés de chapitres pour aider les étudiants dans leur apprentissage. Concevoir des examens et des quiz à partir du contenu de formation développé pour les étudiants et gagner du temps dans la préparation de vos cours Générer des scénarios ou cas d’étude pour des travaux de groupe, basés sur des sujets d’actualité ou des avancées scientifiques pour décupler les possibilités d’animations de cours (contenu, ateliers de groupes, etc.) Adapter son enseignement et préparer ses apprenants à la révolution de l’IAG Partie 1 : les bases de l’IA et du prompt engineering (1h30) – Décrire le principe de fonctionnement général d’une intelligence artificielle générative – Découvrir le prompt engineering Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques) – Décrire les principaux modèles de prompt engineering – Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement – Créer plusieurs ressources : résumé, articles, traductions, présentations, etc. Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques) – Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter – Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format – Échanger autour des questions qui posent questions : éthique, droits d’auteur, sécurité… Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications Découvrir Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications Décrire le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative. Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Synthétiser des articles et contenus scientifiques en produisant des résumés concis qui mettent en évidence les points clés et les conclusions principales. Améliorer sa veille technologique en configurant, personnalisant et automatisant des outils d’intelligence artificielle générative pour surveiller et résumer les dernières recherches publiées dans des domaines spécifiques. Identifier les points clés d’un domaine scientifique spécifique et détecter les sujets de recherche manquants nécessaires pour compléter un modèle théorique existant. Traduire des articles Partie 1 : les bases de l’IA et du prompt engineering (1h30) – Décrire le principe de fonctionnement général d’une intelligence artificielle générative – Découvrir le prompt engineering Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques) – Décrire les principaux modèles de prompt engineering – Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement – Créer plusieurs ressources : résumé, articles, traductions, présentations, etc. Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques) – Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter – Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format – Échanger autour des enjeux & bouleversements de l’IAG pour le secteur : éthique, droits d’auteur, sécurité… Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français L'Analyse de données avec R Découvrir L'Analyse de données avec RSavoir manipuler les données et en tirer de l’information avec R. Statistiques introductives Statistique univariée Statistique bivariée Introduction à ggplot2, la grammaire des graphiques Graphiques univariés et bivariés avec ggplot2 Données pondérées Statistiques intermédiaires Intervalles de confiance Comparaisons Définir un plan d’échantillonnage complexe Régression linéaire Régression logistiques binaire, multinomiale et ordinale Analyse en correspondances multiples Classification ascendante hiérarchique Statistiques avancées Effets d’interaction dans un modèle Multi-colinéarité dans la régression Analyse de survie Analyse de séquences Analyse de réseaux Analyse spatiale Data Science Open Source Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais Machine Learning Avancé Découvrir Machine Learning Avancé Maîtriser des modèles plus complexes de machine learning, en particulier les méthodes d’ensemble reposant sur les techniques de bagging et de boosting, utiliser et optimiser des modèles de pénalisation (lasso et elasticnet), comprendre la technique de rééchantillonnage par bootstrap pour l’estimation et la validation croisée, savoir mettre en oeuvre les techniques de filtrage collaboratif. À l’issue de cette formation, le participant aura une vision globale des différentes techniques de modélisation multivariée. JOUR 1 L’exploration avancées des données : DBSCAN, algorithme de clustering de données non supervisées Manifold Learning JOUR 2 Gaussian Mixture Modelling (GMM) Optimiser des modèles de pénalisation avec Lasso et elasticnet (régression, PLS) Support Vector Machine (SVM) JOUR 3 Random Forest et Gradient Boosting Machines L’estimation et la validation croisée par Bootstraping Le filtrage collaboratif et le système de recommandation Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français Machine Learning bases Découvrir Machine Learning bases Comprendre les bases de l’apprentissage artificiel et du machine learning sur des données structurées, appliquer des méthodes standard de réduction de dimension et de clustering, savoir mettre en oeuvre un modèle de régression en contrôlant le surajustement et en validant les prédictions du modèle, comprendre les bases du text mining. À l’issue de cette formation, le participant sera en mesure de déterminer le type de techniques à appliquer en fonction des questions posées et de réaliser des pré-traitements élaborés afin de mettre en oeuvre des modèles prédictifs. JOUR 1 Introduction aux méthodes non supervisées : L’analyse en composantes principales (PCA) La classification automatique (k-means), Les règles d’association (apriori, eclat) Introduction aux méthodes supervisées : Les modèles de régression linéaire et logistique avec régularisation (ridge régression), Les arbres de décision (régression et classification) JOUR 2 Les méthodes standards pour mettre en œuvre des modèles prédictifs : Feature engineering : apprendre à réduire la complexité d’un problème, Sélection de variables, Validation croisée, Calibration d’un modèle prédictif Text Mining et web scraping Analyse Data Science Open Source Intra-entreprise Présentiel Distanciel Anglais Français Outils avancés - Python Découvrir Outils avancés - Python Approfondir les outils permettant de représenter et manipuler des données complexes, utiliser efficacement la librairie pandas, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec la librairie statmodels, perfectionner ses connaissances de matplotlib et savoir utiliser seaborn ou plotly… JOUR 1 Les traitements avancés des données : La librairie numpy : les fonctions avancées (views, slices) l’interface avec scipy La librairie pandas : L’importation de sources de données externes, L’agrégation de données, Le reshaping, L’indexation, La fusion de sources de données La librairie statmodels : La régression simple et multiple, Les tests des coefficients de régression, Le diagnostic du modèle, La prédiction ponctuelle et par intervalle Le traitement des chaînes de caractères, regex Le traitement des dates et gestion des séries chronologiques JOUR 2 Les générateurs, itertools, lazy evaluation L’interface base de données (SQL, NoSQL) Le package Seaborn : les fonctionnalités graphiques avancées (graphiques en trellis, distributions statistiques, heatmap) Analyse Data Science Open Source Intra-entreprise Distanciel Présentiel Français Anglais Outils avancés - R Découvrir Outils avancés - R Approfondir les outils permettant de représenter et manipuler des données complexes, découvrir les packages dplyr et data.table pour optimiser les traitements de données, importer des sources de données (CSV, JSON, XML, SQL), réaliser un modèle de régression linéaire simple ou multiple avec le package {stats}, perfectionner ses connaissances des graphiques et savoir utiliser ggplot2 ou plotly. À l’issue de cette formation, le participant doit être en mesure d’importer voire de fusionner des sources structurées ou non structurées de données, d’appliquer des traitements avancés sur les données quantitatives et qualitatives et de construire des graphiques statiques ou dynamiques élaborés.a JOUR 1 L’ importation de sources de données externes avec les packages {base}, {foreign} et {haven} Les outils pour optimiser les traitements de données, {data.table} et {dplyr} : La manipulation avancée des data frames, L’aggrégation de données, Le reshaping, L’indexation, La fusion de sources de données La réalisation d’un modèle de régression linéaire simple ou multiple avec le package {stats} : La régression simple et multiple, Les tests des coefficients de régression, Le diagnostic du modèle, La prédiction ponctuelle et par intervalle JOUR 2 Le traitement des chaînes de caractères, regex Le traitement des dates et gestion des séries chronologiques L’approche fonctionnelle et lazy evaluation L’interface base de données (SQL, NoSQL) Les fonctionnalités graphiques avancées avec le package {ggplot2} : Les graphiques en trellis, Les distributions statistiques, Représentation de données avec le heatmap Construction de graphiques statiques ou dynamiques élaborés interactifs avec les packages {ggvis} et {plotly} Analyse Data Science Open Source Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais Outils de base - Python Découvrir Outils de base - Python Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les bases des librairies numpy et scipy pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec matplotlib. JOUR 1 L’environnement de travail : Python 2 et 3.x, La présentation des différentes consoles et le débogage en Python : Anaconda, Jupyter, Spyder Les types de données : listes, dictionnaires Les structures de contrôle Les fonctions, méthodes et packages JOUR 2 La préparation et le nettoyage des données : numpy : Les objets de base et la manipulation de tableaux à 2 dimensions (array et fonctions de calcul numérique, générateurs de nombre aléatoire) scipy : Les fonctionnalités de base (fonctions scientifiques et tests statistiques de base) Les distributions de probabilité et statistiques univariées simples Fonctions graphiques de base (scatterplot, box plot, histogrammes) L’écriture de scripts simples Analyse Data Science Open Source Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais Outils de base - R Découvrir Outils de base - R Comprendre comment sont représentées les données, savoir manipuler des structures de données simples, maîtriser les fonctions de base dans les packages {base} et {stats} pour le calcul numérique et les fonctions statistiques de base, apprendre les bases de la visualisation graphique avec le package graphique de base {graphics}. À l’issue de cette formation, le participant doit être en mesure d’écrire des scripts d’analyse simple en travaillant soit avec des données artificielles soit avec des sources de données ne nécessitant pas de pré-traitement majeur. Il saura mettre en œuvre les principaux tests statistiques pour la comparaison de deux échantillons et réaliser des graphiques exploratoires de base. JOUR 1 L’environnement de travail : Présentation de R 3.x Présentation de RStudio Les différents types de données de base (vecteur, liste, data frame), les structures de contrôle, les fonctions simples Les structures de contrôle de base de R Les fonctions et les packages importants pour la manipulation de données JOUR 2 Les fonctionnalités de base : Les fonctions numériques simples, Les générateurs de nombre aléatoire Les distributions de probabilité et statistiques univariées Les fonctions scientifiques {stats} et les tests statistiques de base La gestion graphiques statistiques élémentaires : scatterplot, box plot, histogram) L’écriture de scripts simples de programmation avec R Analyse Data Science Open Source Intra-entreprise Inter-entreprise Distanciel Présentiel Français Anglais Séries temporelles avec R Découvrir Séries temporelles avec R Savoir traiter les séries temporelles avec R Introduction Tendances et composantes saisonnières Indices descriptifs d’une série temporelle Lissages exponentiels Lissage simple Lissage double Estimation et élimination de la tendance et de la saisonnalité Bruit blanc Processus stationnaire Estimation paramétrique de la tendance Estimation non paramétrique Elimination de la tendance et de la saisonnalité Modélisation des séries stationnaires Auto-corrélation partielle Les processus auto-régressifs Les processus en moyenne mobile Les processus mixtes ARMA Tableau des propriétés Estimation et choix de modèle Processus ARIMA et SARIMA Analyse Data Science Open Source Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais Process et métiers des laboratoires Analyse des données épidémiologiques avec STATA Découvrir Analyse des données épidémiologiques avec STATA Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population. Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides Décrire et résumer les données Élaborer des hypothèses et analyser les données. Interpréter et communiquer les résultats STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins. STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche. Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats. Analyses bio-statistiques de base Rappels sur le logiciel STATA et sur la manipulation des données Analyses univariées Analyse de données quantitatives : t-test, tests non paramétriques Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar Corrélation : Pearson, Spearman Tables épidémiologiques Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable Chi-carré, tests de Fishers exacts et mantel-Haenszel Exercices Détermination de la taille de l’échantillon Calcul de la taille de l’échantillon, Poids d’échantillonnage Puissance statistique Construire des groupes de comparaison valides Exercices Introduction aux modèles statistiques de base utilisés en épidémiologie ANOVA, ANCOVA Régressions linéaires simples et multiples Introductions aux notions de confusion, de modification et de médiation Régression logistique Exercices Analyse de survie Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche) Modèle de Kaplan-Meier et taux de hasard Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres. Prédire les rapports de risque Exercices Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Distanciel Français Anglais Bioélectrochimie - Concepts et applications Découvrir Bioélectrochimie - Concepts et applications Acquérir les bases en bioélectrochimie. Connaître les outils utilisés en bioélectrochimie. Connaître les applications concrètes des systèmes bioélectrochimiques. Pouvoir collaborer avec des chimistes/biologistes dans le cadre de projets incluant un système bio-électrochimique. Initiation aux systèmes bioélectrochimiques Qu’est-ce qu’un système bioélectrochimique ? Les biofilms électroactifs. Les microorganismes électroactifs modèles. De la sélection anodique aux interactions microbiennes. Les réacteurs : design et matériaux. Les applications réelles Traitement des eaux usées. Traitement d’effluents industriels. Production de molécules d’intérêt. Autres applications. Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français Anglais Formation FindMolecule : ELN Découvrir Formation FindMolecule : ELN Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche. Comprendre et maîtriser l’environnement FindMolecule. Présentation (5 min) Présentation du formateur ; Résumé du programme de la formation ; Prise de présence Module 1. Utilisation du logiciel (2h55) Section « Mon labo » et paramètres personnels Gestion des paramètres personnels et notifications Création de projets Période de questions Section « Cahier de laboratoire » Le menu de gauche Comment utiliser le menu de gauche Connaître l’information contenue dans ce menu Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages Apprendre à utiliser les différents onglets Comment accéder à l’information qu’ils contiennent Comment gérer les paramètres de l’onglet Réglages Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique) Comment créer une expérience de laboratoire Comment remplir les différentes sections d’une expérience Comment compléter une expérience, de la création à la demande de contre-signature Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience Comment lier deux expériences Comment cloner une expérience Comment accéder aux expériences de nos collègues Période de questions Module 2. Gestion du logiciel (1h00) Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées. Section « Mon labo » Comment ajouter, modifier et désactiver des utilisateurs Comment créer, modifier et supprimer des projets Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte Section « Cahier de laboratoire » Paramètres disponibles Utilisation du rôle « Directeur » Utilisation du rôle « Institution Admin » Période de questions Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français Formation FindMolecule : Inventaire Découvrir Formation FindMolecule : Inventaire Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche. Comprendre et maîtriser l’environnement FindMolecule. Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises Utiliser « Inventaire » et « Cahier de laboratoire » Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire » Présentation (5 min) Présentation du formateur ; Résumé du programme de la formation ; Prise de présence Module 1. Utilisation du logiciel (2h45) Section « Mon labo » et paramètres personnels Gestion des paramètres personnels et notifications Création de projets Section « Inventaire » Inventaire : Comment ajouter des composés et des équipements à l’inventaire Comment rechercher des composés et des équipements Comment consulter les résultats de recherche Apprendre les actions possibles avec les résultats de recherche Scanner : Comment utiliser le mode Scan Comment utiliser le mode Multiscan Comment accéder et consulter la page d’aide Système de gestion de Commandes et Réceptions : Comment commander un composé ou un équipement Comment compléter le formulaire de demande de commande Comment utiliser la section « Mes commandes » Période de question Module 2. Gestion du logiciel (1h10) Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées. Section « Mon labo » Comment ajouter, modifier et désactiver des utilisateurs Comment créer, modifier et supprimer des projets Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte Section « Inventaire » Comment modifier ou supprimer un composé ou un équipement Comment imprimer une étiquette « GHS » Comment utiliser la fonctionnalité « Rapport » Comment gérer et indiquer l’achat et la réception des demandes de commandes Comment créer, gérer, modifier et supprimer des emplacements Comment gérer les paramètres du groupe Comment gérer les paramètres généraux Comment gérer les paramètres du code-barre Comment obtenir une copie de l’inventaire Utilisation du rôle « Institution Admin » Période de questions Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Anglais Français Formation FindMolecule : Inventaire et ELN Découvrir Formation FindMolecule : Inventaire et ELN Comprendre le rôle du logiciel FindMolecule au sein d’un laboratoire de recherche. Comprendre et maîtriser l’environnement FindMolecule. Distinguer les différents rôles disponibles et se familiariser avec leur accès et actions permises Utiliser « Inventaire » et « Cahier de laboratoire » Gérer « Mon labo », « Inventaire » et « Cahier de laboratoire » Présentation (5 min) Présentation du formateur Résumé du programme de la formation Prise de présence Module 1. Utilisation du logiciel (2h55) Section « Mon labo » et paramètres personnel Gestion des paramètres personnels et notifications ; Création de projets ; Section « Inventaire » Inventaire : Comment ajouter des composés et des équipements à l’inventaire ; Comment rechercher des composés et des équipements ; Comment consulter les résultats de recherche ; Apprendre les actions possibles avec les résultats de recherche Scanner : Comment utiliser le mode Scan ; Comment utiliser le mode Multiscan ; Comment accéder et consulter la page d’aide Système de gestion de Commandes et Réceptions : Comment commander un composé ou un équipement ; Comment compléter le formulaire de demande de commande ; Comment utiliser la section « Mes commandes » Section « Cahier de laboratoire » Le menu de gauche Comment utiliser le menu de gauche Connaître l’information contenue dans ce menu Onglets : Tableau de Bord, Aperçu, Rechercher, Cahier de Labo, Réglages Apprendre à utiliser les différents onglets Comment accéder à l’information qu’ils contiennent Comment gérer les paramètres de l’onglet Réglages Expériences de Laboratoires (Réaction ; l’expérience Générique est présentée rapidement à moins d’une demande spécifique) Comment créer une expérience de laboratoire Comment remplir les différentes sections d’une expérience ; Comment compléter une expérience, de la création à la demande de contre-signature ; Comment optimiser l’utilisation des outils de FindMolecule pour la création et la complétion de pages d’expérience ; Comment lier deux expériences ; Comment cloner une expérience ; Comment accéder aux expériences de nos collègues ; Module 2. Gestion du logiciel (2h) Note : Module spécifique aux utilisateurs ayant le rôle Administrateurs, Directeurs ou Administrateurs d’Institution dans FindMolecule. Les autres utilisateurs peuvent continuer à suivre la formation, mais ils n’auront pas accès dans le logiciel aux actions présentées. Section « Mon labo » Comment ajouter, modifier et désactiver des utilisateurs ; Comment créer, modifier et supprimer des projets ; Comprendre la nuance entre les projets au niveau de l’utilisateur, du groupe ou du compte ; Section « Inventaire » Comment modifier ou supprimer un composé ou un équipement ; Comment imprimer une étiquette « GHS » ; Comment utiliser la fonctionnalité « Rapport » ; Comment gérer et indiquer l’achat et la réception des demandes de commandes ; Comment créer, gérer, modifier et supprimer des emplacements ; Comment gérer les paramètres du groupe Comment gérer les paramètres généraux ; Comment gérer les paramètres du code-barre ; Comment obtenir une copie de l’inventaire ; Section « Cahier de laboratoire » Paramètres disponibles Utilisation du rôle « Directeur » Utilisation du rôle « Institution Admin » Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Français Innover avec le design thinking Découvrir Innover avec le design thinkingComprendre le processus de Design Thinking afin de l’utiliser pour innover et résoudre des problèmes complexes. 1. Discover : à la découverte du challenge à relever 2. Define : définir avec précision le problème à résoudre 3. Develop : imaginer la solution la plus pertinente 4. Deliver : construire la solution et recueillir des feedbacks selon une démarche itérative Management du changement Process et métiers des laboratoires Intra-entreprise Coaching Distanciel Présentiel Français Management Agile des projets scientifiques Découvrir Management Agile des projets scientifiques Objectifs pédagogiques: Aborder l’état d’esprit et les concepts de l’Agilité Pourquoi passer à l’Agilité ? Introduction à l’Agilité Le vocabulaire de l’Agilité Les principes de Scrum Management du changement Process et métiers des laboratoires Coaching Intra-entreprise Distanciel Présentiel Français Plans factoriels avec Design Expert Découvrir Plans factoriels avec Design ExpertApprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert Jour 1 1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ; 2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité 3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement 4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses 5. Estimation des coefficients d’un polynôme : Cas général : effets plus ou moins fortement redondants ; régression linéaire multiple nécessaire ; Orthogonalité : effets parfaitement indépendants ; estimation directe possible 6. Typologie des plans d’expériences proposés par Design-Expert : • Plans « standards » (généralement orthogonaux) : Pas de contrainte sur : le domaine expérimental, le nombre d’essais, … • Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) : – Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution – Plans de Plackett & Burman (matrices de Hadamard) • Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux • Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) : • plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV » Jour 2 Avec Design Expert : 1. Plan Factoriel – Traitement d’exemple(s) : • Création d’un Plan Factoriel avec Design Expert : • Catalogue – Guide – Résumé • Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur • Comparaison des divers types de plans pour un problème donné : Plan de Plackett & Burman (criblage de facteurs influents) Plan factoriel fractionnaire (modèle avec interactions) Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) : « Min Run Res V » (modèle avec interactions) « Min Run Res IV » (modèle sans interaction) • Principes de construction de ces plans – Justification théorique. 2. Analyse des résultats avec Design Expert : • Analyse de corrélation entre Réponses • Modélisation « Factorielle » de chaque Réponse : • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox) Utilisation du modèle : graphes de visualisation et de compréhension du modèle Jour 3 1. Analyse des résultats avec Design Expert : • Suite et fin • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 2. Optimisation des réponses avec Design Expert : • Numérique : Critères de désirabilité – Solutions – Graphes • Graphique : Critères de plage – Graphes • Prédictions : Intervalles de Confiance et de Prédiction • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert : • de la résolution en cours à une résolution supérieure (clarification de concomitances) • (Fold / Semifold / Optimal factorial) • d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse • Questions et réponses. • Présentation et commentaires de problématiques « participants ». Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Coaching Conseil Intra-entreprise Présentiel Distanciel Français Séquençage haut débit et écologie microbienne Découvrir Séquençage haut débit et écologie microbienne Comprendre le séquençage génomique à haut débit. Être capable de choisir la technologie adaptée à son projet. Connaître les outils bio-informatiques utilisés. Connaître les analyses statistiques possibles. Méthodes moléculaires Séquençage HTS. Métagénomique ciblée. Métagénomique globale. Analyses RNA-seq. CRISPR/Cas9. Applications en écologie microbienne Extraction d’ADN microbien. Analyse bioinformatique des séquences. L’analyse de données : diversité, cluster, réseau, core-microbiome Chimie / Bio Process et métiers des laboratoires Intra-entreprise Distanciel Présentiel Français Publication Citavi : outil de gestion bibliographique et publication Découvrir Citavi : outil de gestion bibliographique et publication Créer son projet Citavi Organiser et gérer ses références avec Citavi Alimenter sa base avec de nouvelles références par différents exports : DOI, PDF, sites web,… Citer ses références bibliographiques avec Citavi et publier des documents avec Word, des articles contenant des références bibliographiques Echanger et partager ses références et les éléments de connaissances Introduction à Citavi : exposé théorique (30 min) Démarrer avec Citavi : Découvrir l’interface et travailler sur un projet (créer, ouvrir, sauver), Collaborer avec Citavi : exercices appliqués (1h30) Alimenter le projet : Ajouter des références (manuellement, automatiquement), Rechercher puis insérer des références (depuis Citavi, depuis Internet, avec le Picker) : exercices concrets avec imports de différents formats de documents, navigation sur internet pour rechercher de nouveaux documents (1h30) Organiser et planifier : Structurer et trier ses références (classement, filtre, tableau) , Rechercher dans son projet (dans les références et le texte intégral), Modifier ses références (les champs, les documents liés, les mots clés, l’évaluation), Planifier son travail (tâches) : présentation et exercices pratiques, étude de cas (1h) Enrichir avec les éléments de connaissance : Utiliser l’organisateur de connaissance, travailler sur ses documents PDFs (annotations), Ajouter des pensées au projet, Lier un article et sa review : exercices appliqués (1h30) Exploiter son projet : Utiliser des styles de citation Exporter des références (presse-papier, fichier texte, tableur, par e-mail) Créer la bibliographie d’un projet Rédiger des documents avec Word présentation théorique et application pratique (1h) Publication Intra-entreprise Inter-entreprise Distanciel Présentiel Français Allemand Italien Anglais EndNote : outil de gestion bibliographique et de publication Découvrir EndNote : outil de gestion bibliographique et de publication Créer sa base de données bibliographique Organiser et gérer ses références avec EndNote Alimenter sa base avec de nouvelles références par différents exports : DOI, PDF, sites web,… Citer ses références bibliographiques avec EndNote et publier des documents avec Microsoft Word, des articles contenant des références bibliographiques Echanger et partager ses références Prendre en main le logiciel EndNote : présentation du logiciel et prise en main (30 min) Importer des références vers EndNote depuis différentes sources et différents formats : DOI, PDF, bases de données, site web,… exercices concrets avec imports de différents formats de documents, navigation sur internet pour rechercher de nouveaux documents (1h30) Saisir manuellement de références : exercices (15 min) Joindre des documents (pdf, photos, graphique,…) à vos références (15 min) Organiser votre bibliothèque EndNote (notion de groupes) présentation, exercice et cas concrets (30 min) Gérer sa bibliothèque (doublon, lien vers texte intégral, personnalisation du logiciel, …) : présentation, exercices (30 min) Intégrer des citations dans un document ou un article avec le logiciel Word (insérer des références, utiliser des modèles, notion de style bibliographique) présentation, exercices, cas concrets (2h) Constituer des bibliographies thématiques en fonction des besoins : exercices (30 min) La notion de style et personnaliser un style : exposé théorique, explication, exercices (30 min) Echanger et partager ses références : exposé théorique et exercices (30 min) Publication Intra-entreprise Présentiel Distanciel Français Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications Découvrir Intelligence Artificielle Générative pour l’Enseignement Recherche - Concepts et applications Découvrer le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative et bénéficier du potentiel des outils d’IAG Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Classifier les outils d’intelligence artificielle générative selon les médias mis en œuvre (text-to-text, text-to-image, etc.), et sélectionner le bon outil pour un cas d’usage précis. Produire des activités pédagogiques telles que des notes de cours, des guides d’étude, ou des résumés de chapitres pour aider les étudiants dans leur apprentissage. Concevoir des examens et des quiz à partir du contenu de formation développé pour les étudiants et gagner du temps dans la préparation de vos cours Générer des scénarios ou cas d’étude pour des travaux de groupe, basés sur des sujets d’actualité ou des avancées scientifiques pour décupler les possibilités d’animations de cours (contenu, ateliers de groupes, etc.) Adapter son enseignement et préparer ses apprenants à la révolution de l’IAG Partie 1 : les bases de l’IA et du prompt engineering (1h30) – Décrire le principe de fonctionnement général d’une intelligence artificielle générative – Découvrir le prompt engineering Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques) – Décrire les principaux modèles de prompt engineering – Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement – Créer plusieurs ressources : résumé, articles, traductions, présentations, etc. Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques) – Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter – Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format – Échanger autour des questions qui posent questions : éthique, droits d’auteur, sécurité… Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications Découvrir Intelligence Artificielle Générative pour la Veille scientifique - Concepts et applications Décrire le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative. Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Synthétiser des articles et contenus scientifiques en produisant des résumés concis qui mettent en évidence les points clés et les conclusions principales. Améliorer sa veille technologique en configurant, personnalisant et automatisant des outils d’intelligence artificielle générative pour surveiller et résumer les dernières recherches publiées dans des domaines spécifiques. Identifier les points clés d’un domaine scientifique spécifique et détecter les sujets de recherche manquants nécessaires pour compléter un modèle théorique existant. Traduire des articles Partie 1 : les bases de l’IA et du prompt engineering (1h30) – Décrire le principe de fonctionnement général d’une intelligence artificielle générative – Découvrir le prompt engineering Partie 2 : usages de prompt engineering (1h30 + 30min travaux pratiques) – Décrire les principaux modèles de prompt engineering – Partager autour des cas d’usage dans le monde de la recherche et de l’enseignement – Créer plusieurs ressources : résumé, articles, traductions, présentations, etc. Partie 3 : aller plus loin avec les IAG – cas concrets & outils (3h00 + 30min travaux pratiques) – Expérimenter les usages créatifs de l’IA pour générer des contenus, brainstormer, argumenter – Découvrir des outils d’IA générative pour se faciliter la vie (Chatbase, Custom GPT, Brancher.ai, Scispace, etc.). Exemple : créer un GPTs afin d’automatiser la rédaction de référence dans le bon format – Échanger autour des enjeux & bouleversements de l’IAG pour le secteur : éthique, droits d’auteur, sécurité… Communication et rédaction scientifique Open Source Publication Inter-entreprise Intra-entreprise Distanciel Présentiel Français Mettre en place sa veille scientifique et technologique dans un projet innovant Découvrir Mettre en place sa veille scientifique et technologique dans un projet innovant Réussir la mise en œuvre de la veille scientifique, technique et technologique d’un projet. Connaître le cycle de veille et organiser son plan de veille. Organiser les différentes étapes de la veille concrètement. Se familiariser avec les bases du cycle global de la veille scientifique, présentation théorique et présentation des projets individuels (30 min) Identifier les étapes clés du processus de veille scientifique, présentation et exercice pratique (30 min) Méthodologie de recherche d’informations scientifiques, techniques et technologiques : exposé théorique et exercice de mise en pratique (30 min) Bien définir ses besoins, son périmètre et ses axes de recherche exercice pratique : exercice de mise en pratique (1h30) Organiser une veille ciblée cas concret (30 min) Bien choisir ses sources : les différents moteurs de recherche scientifiques, les bases de données et la littérature grise exercice , fiche technique, fiches conseil (1h30) Choisir et analyser les informations importantes au projet présentation théorique (30 min) Evaluer et gérer les informations (15 min) Diffuser sa veille : présentation (30 min) Point sur les outils de veille : présentation (15 min) Ajuster et mener des actions correctives sur le projet : théorie (30 min) Communication et rédaction scientifique Publication Intra-entreprise Inter-entreprise Présentiel Distanciel Français Statistiques théoriques et appliquées Analyse avancée des séries temporelles avec EViews Découvrir Analyse avancée des séries temporelles avec EViews Cette formation avancée d’une journée est construite de manière à couvrir les aspects fondamentaux de l’analyse des séries temporelles avec EViews, en se concentrant sur les modèles univariés et multivariés. Il combine des rappels des concepts théoriques avec des exercices pratiques mis en oeuvre avec EViews pour améliorer les compétences des participants en matière de modélisation et de prévisions avancées des séries temporelles. Le programme peut être adapté sur deux jours dans le cas où les participants souhaitent renforcer leurs compétences dans le domaine des méthodes d’analyse des séries temporelles. Il peut être également être ajusté en fonction des compétences et des besoins des participants et du rythme souhaité d’apprentissage. Session 1 : Rappel des notions de base sur les séries temporelles et mise en œuvre avec EViews (1h30) 1. Introduction à l’analyse des séries temporelles (30mn) a. Définition et importance des séries temporelles b. Application de l’analyse des séries temporelles 2. Interface et configuration EViews (30mn) a. Revue de l’interface b. Mise en place d’un projet d’analyse des séries temporelles c. Chargement et organisation des données 3. Exploration préalable des données (30mn) a. Statistiques descriptives b. Exploration graphique c. Identifier les tendances et les modèles Session 2 : Analyse de séries temporelles univariées (1h30) 1. Stationnarité et différenciation (30mn) a. Comprendre la notion de stationnarité b. Différencier pour atteindre la stationnarité c. Mise en œuvre dans EViews 2. Modèles ARIMA (1h) a. Introduction aux modèles ARIMA b. Identification des paramètres c. Mise en œuvre dans EViews : construction et interprétation Session 3 : Analyse de séries temporelles multivariées (2h) 1. Les modèles VAR (1h) a. Introduction b. Estimation avec EViews c. Les fonctions de réponse impulsionnelle : mise en œuvre et lecture des résultats 2. Modèles de cointégration et à correction d’erreurs (ECM) (1h) a. Comprendre la notion de cointégration b. Mise en œuvre et interprétation avec EViews Session 4 : Prévision et évaluation de modèles (2h) 1. Prévision de séries temporelles (1h) a. Présentation des méthodes de prévision b. Mise en œuvre avec EViews c. Évaluation de la précision des prévisions 2. Évaluations et diagnostic du modèle (30mn) a. Tests de diagnostics b. Interprétation des résultats et examen des résidus du modèle c. Des modèles affinés pour de meilleures prévisions : combinaison de méthodes 3. Exercice pratique (30mn) Économétrie / Finance Statistiques théoriques et appliquées Coaching Intra-entreprise Distanciel Présentiel Français Analyse des données épidémiologiques avec STATA Découvrir Analyse des données épidémiologiques avec STATA Utiliser des outils d’épidémiologie et de bio statistique pour décrire, surveiller et étudier les déterminants de la santé de la population. Acquérir les connaissances statistiques clés nécessaires à la réalisation de recherches valides Décrire et résumer les données Élaborer des hypothèses et analyser les données. Interpréter et communiquer les résultats STATA est un logiciel de statistiques et d’économétrie largement utilisé par les économistes et les épidémiologistes. Dans le domaine de l’analyse des données de santé, avec ses commandes dédiées, STATA permet de réaliser des analyses épidémiologiques de base, de générer les tables préliminaires et les calculs nécessaires aux études de cohorte ou de cas-témoins. STATA permet également d’utiliser une panoplie de méthodes statistiques très diversifiées largement utilisées dans le domaine de l’analyse des données épidémiologiques. Que vous meniez des recherches sur les maladies infectieuses, que vous enquêtiez sur l’exposition à des agents pathogènes ou que vous étudiiez des maladies chroniques, STATA fait partie de l’ensemble des logiciels les plus adaptés pour gérer vos données, pour disposer des outils statistiques nécessaires à vos projets de recherche. Il vous offre également la possibilité de créer des graphiques de qualité afin que vous puissiez publier clairement vos résultats. Analyses bio-statistiques de base Rappels sur le logiciel STATA et sur la manipulation des données Analyses univariées Analyse de données quantitatives : t-test, tests non paramétriques Analyse de données qualitatives : test de chi-deux, test de Fisher, test de Mc Nemar Corrélation : Pearson, Spearman Tables épidémiologiques Tableau stratifié 2 × 2 et 2 × 2 pour les données longitudinales, d’étude de cohorte, cas-témoins et cas-témoins appariées Rapport de côtes, rapport d’incidence, rapport de risque, différence de risque et fraction attribuable Chi-carré, tests de Fishers exacts et mantel-Haenszel Exercices Détermination de la taille de l’échantillon Calcul de la taille de l’échantillon, Poids d’échantillonnage Puissance statistique Construire des groupes de comparaison valides Exercices Introduction aux modèles statistiques de base utilisés en épidémiologie ANOVA, ANCOVA Régressions linéaires simples et multiples Introductions aux notions de confusion, de modification et de médiation Régression logistique Exercices Analyse de survie Analyse des données de durée : mise en forme des données, censure (droite et gauche), troncature (droite et gauche) Modèle de Kaplan-Meier et taux de hasard Modélisation de la survie en fonction des covariables à l’aide de modèles de régression de Cox, Weibull, lognormal et autres. Prédire les rapports de risque Exercices Analyse Process et métiers des laboratoires Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Distanciel Français Anglais Biostatistiques avec R Découvrir Biostatistiques avec R Apprendre à utiliser le logiciel R pour analyser des données Être capable de comprendre et choisir le test statistique approprié Savoir représenter des données sous R Comprendre les statistiques Logiques de raisonnement et hypothèses. Notions de base pour utiliser R en statistiques Les fondamentaux du logiciel R. La création de variables et la manipulation de données. Choisir le test approprié Loi normale et homoscédasticité. Comparaison de moyennes Tests paramétriques. Tests non paramétriques. Les analyses multivariées Coefficient de corrélation de Pearson. L’analyse en composantes principales (ACP) Analyse Chimie / Bio Open Source Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Italien Anglais Découverte du logiciel Stata : Stata Deb1 – Stata Deb4 Découvrir Découverte du logiciel Stata : Stata Deb1 – Stata Deb4 Maîtrise des fonctions de base afin d’être autonome avec Stata sur les sujets suivants : Statistiques descriptives, graphiques et premières estimations. Stata Deb1 : A la rencontre du logiciel Présentation de l’environnement du logiciel Comment paramétrer une session Stata pour être efficace La syntaxe générale d’une commande de Stata Savoir utiliser l’aide pour devenir autonome Exemple commenté d’une session Stata pour en appréhender les possibilités Importer des données, les décrire et les visualiser : une première approche Un premier Exercice Stata Deb2 : Travailler ses données Exploration d’un fichier de données : le conditionnel if, by et in Manipuler des variables : création, recodage, labels et plein d’autres astuces Manipuler des données : trier, supprimer, fusionner, changement de format et produire des données agrégées Un exercice pour se tester Stata Deb3 : Statistiques Descriptives, Tables et Graphiques Statistiques descriptives Tables statistiques synthétiques Analyse univariée Une introduction à l’analyse de la variance Les graphiques avec Stata Un exercice synthétique Stata Deb4 : Une introduction à la régression Régression linéaire : estimation, post-estimation, diagnostics et tests Régression logistique : estimation, post-estimation, diagnostics et tests Découverte de la programmation : les boucles Exercice synthétique (suite) Analyse Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français Anglais Introduction à EViews Découvrir Introduction à EViews Ce programme sur deux jours fournit une introduction à EViews, couvrant les fonctionnalités essentielles et les applications pratiques pour l’analyse et la prévision des données. Les participants doivent repartir avec une maîtrise du logiciel et la capacité de l’appliquer à leur travail. Des ajustements peuvent être proposés en fonction des connaissances préalables des participants et de leurs besoins spécifiques. Session 1 : Introduction à EViews et à son environnement (3h30) 1. Introduction et Aperçu a. Présentation du formateur et des participants b. Bref aperçu des objectifs de la formation 2. Premiers pas avec EViews a. Présentation détaillée de l’interface b. Options de navigation et de personnalisation de base 3. Travailler avec des workfiles a. Création, ouverture et sauvegarde b. Comprendre les différents types de workfiles c. Options d’importation et d’exportation des données 4. Gestion des données dans EViews a. Exploration et nettoyage des bases de données b. Transformation des variables c. Gestion des données manquantes 5. Exercices pratiques Session 2 : Notions de base sur la manipulation des données et des séries chronologiques (3h30) 1. Statistiques descriptives a. Calcul des statistiques de base b. Représentation graphique des données c. Techniques d’exploration des données 2. Analyse des séries chronologiques a. Comprendre la nature des séries chronologiques b. Représentations graphiques spécifiques c. Analyses de base des séries chronologiques 3. La régression : premiers pas avec Eviews a. Introduction à l’analyse de régression b. Mise en œuvre et interprétation des résultats 4. Exercices pratiques Session 3 : Les méthodes d’analyse les plus usuelles (3h30) 1. La régression : pour aller plus loin avec EViews a. Mettre en œuvre plusieurs régressions b. Tests de diagnostics 2. Les méthodes de prévision a. Techniques de prévision des séries chronologiques b. Mise en œuvre de modèles de prévision c. Évaluation de la précision des prévisions Session 4 : Présentation des données, rapports et synthèse (3h30) 1. Présentation des données et graphiques a. Création et personnalisation de tableaux et de graphiques b. Exportation de résultats vers d’autres formats 2. Générer des rapports dans EViews a. Présentation des fonctionnalités de création de rapports b. Création d’un rapport de base 3. Études de cas et exercices pratiques a. Application d’EViews à une étude de cas réelle b. Présentation des résultats par les participants 4. Synthèse a. Récapitulatif et concepts clés b. Bonnes pratiques et ressources supplémentaires c. Commentaires des participants et remarques finales Économétrie / Finance Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Présentiel Distanciel Français L'Analyse de données avec R Découvrir L'Analyse de données avec RSavoir manipuler les données et en tirer de l’information avec R. Statistiques introductives Statistique univariée Statistique bivariée Introduction à ggplot2, la grammaire des graphiques Graphiques univariés et bivariés avec ggplot2 Données pondérées Statistiques intermédiaires Intervalles de confiance Comparaisons Définir un plan d’échantillonnage complexe Régression linéaire Régression logistiques binaire, multinomiale et ordinale Analyse en correspondances multiples Classification ascendante hiérarchique Statistiques avancées Effets d’interaction dans un modèle Multi-colinéarité dans la régression Analyse de survie Analyse de séquences Analyse de réseaux Analyse spatiale Data Science Open Source Statistiques théoriques et appliquées Intra-entreprise Inter-entreprise Présentiel Blended Distanciel Français Anglais Plans factoriels avec Design Expert Découvrir Plans factoriels avec Design ExpertApprendre à créer et analyser des Plans d’Expériences Factoriels avec Design Expert Jour 1 1. Principes : modélisation locale empirique par un polynôme ; degré d’un polynôme ; erreur de modélisation ; hypothèse de hiérarchie des degrés ; effets & coefficients ; 2. Notions : facteurs (quantitatifs & qualitatifs) ; domaine expérimental ; norme ; réponses ; expériences ; économie d’essais ; erreur expérimentale ; efficacité 3. Stratégies : hypothèse de hiérarchie des degrés : alternative Plan Factoriel / Plan en Surface de Réponse ; Plan Factoriel : alternative Complet / Fractionnaire ; principes du fractionnement 4. Utilité : disposer d’un modèle empirique de fonctionnement du système étudié dans un domaine de variation prédéfini permettant de comprendre l’impact des facteurs sur les réponses 5. Estimation des coefficients d’un polynôme : Cas général : effets plus ou moins fortement redondants ; régression linéaire multiple nécessaire ; Orthogonalité : effets parfaitement indépendants ; estimation directe possible 6. Typologie des plans d’expériences proposés par Design-Expert : • Plans « standards » (généralement orthogonaux) : Pas de contrainte sur : le domaine expérimental, le nombre d’essais, … • Plans factoriels à 2 niveaux (effets des facteurs quantitatifs supposés rectilignes) : – Plans factoriels à 2 niveaux complets et fractionnaires / Concomitances – Résolution – Plans de Plackett & Burman (matrices de Hadamard) • Plans factoriels complets quelconques : problèmes comportant des facteurs qualitatifs à plus de deux niveaux • Revue des Plans en « Surface de réponse » (effets des facteurs quantitatifs supposés curvilignes) : • plans Optimaux préconstruits : « Min Run Res V » ; « Min Run Res IV » Jour 2 Avec Design Expert : 1. Plan Factoriel – Traitement d’exemple(s) : • Création d’un Plan Factoriel avec Design Expert : • Catalogue – Guide – Résumé • Evaluation : modèle – ddl ; VIF ; Ri² ; puissance ; leviers – graphes d’erreur • Comparaison des divers types de plans pour un problème donné : Plan de Plackett & Burman (criblage de facteurs influents) Plan factoriel fractionnaire (modèle avec interactions) Plans Optimaux préconstruits (en général meilleur rapport Qualité/Prix) : « Min Run Res V » (modèle avec interactions) « Min Run Res IV » (modèle sans interaction) • Principes de construction de ces plans – Justification théorique. 2. Analyse des résultats avec Design Expert : • Analyse de corrélation entre Réponses • Modélisation « Factorielle » de chaque Réponse : • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension Définition d’un modèle : Significatif – Parcimonieux – Déterminatif – Valide Faut-il transformer la réponse ? Voir Validation du modèle ; Box-Cox Significativité des Effets : graphes de normalité ; graphe de Pareto ; listes ; analyse de variance (ANOVA) : tests de Fisher ; coefficients ; équations Parcimonie du modèle : sélection des Effets réellement influents (significatifs) ; manuelle : interactive sur graphiques d’effets ou par liste ; automatique Détermination (coefficients de) du modèle : ANOVA : R² ; R² ajusté ; R² de prédiction Validation du modèle : ANOVA : courbure (si points au centre) ; amplitude du Résidu : écart-type ; structure du Résidu : graphes de diagnostic (normalité ; ordre ; Box-Cox) Utilisation du modèle : graphes de visualisation et de compréhension du modèle Jour 3 1. Analyse des résultats avec Design Expert : • Suite et fin • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 2. Optimisation des réponses avec Design Expert : • Numérique : Critères de désirabilité – Solutions – Graphes • Graphique : Critères de plage – Graphes • Prédictions : Intervalles de Confiance et de Prédiction • Commentaires – Interprétation – Rappel des concepts statistiques nécessaires à la compréhension 3. Augmentation d’un plan factoriel (ajouts d’essais) avec Design Expert : • de la résolution en cours à une résolution supérieure (clarification de concomitances) • (Fold / Semifold / Optimal factorial) • d’un plan de résolution V ou plus à un plan en Surface de Réponse (caractérisation de courbure) Introduction aux plans en Surface de Réponse • Questions et réponses. • Présentation et commentaires de problématiques « participants ». Analyse Ingénierie et développement Process et métiers des laboratoires Statistiques théoriques et appliquées Coaching Conseil Intra-entreprise Présentiel Distanciel Français Stata ERM : Les modèles de régression étendus Découvrir Stata ERM : Les modèles de régression étendus Apprendre à prendre en compte les différentes sources d’endogénéité dans un modèle de régression 1 modules de 3,5 heures Les différentes sources d’endogénéité et les conséquences sur les propriétés des estimateurs Les méthodes d’estimation pour en tenir compte Une commande synthétique qui permet de considérer ces différentes sources dans un seul modèle Un exercice pratique Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Français Anglais Stata Lasso Découvrir Stata Lasso Maîtriser les méthodes Lasso (least absolute shrinkage and selection operator) avec Stata pour la prédiction et l’/ou l’inférence sur les paramètres causaux. Cette méthode de régression (généralement utilisée dans les problèmes en grande dimension) consiste à pénaliser la taille absolue des coefficients de régression. Comment sélectionner des variables dans un très grand ensemble de variables potentielles ? Objectif sélection ou prédiction ? Variables quantitatives ou qualitatives La validation croisée La représentation des résultats Quelques prolongements Analyse Statistiques théoriques et appliquées Intra-entreprise Présentiel Distanciel Anglais Français Stata Perfectionnement : Stata Av1 – Stata Av4 Découvrir Stata Perfectionnement : Stata Av1 – Stata Av4 Améliorer la maîtrise du logiciel et découvrir des fonctions avancées de Stata Déclarer les données dans différents formats Estimation avancées Programmation. Stata Av1 : Gestion avancée des données Traitement des variables alphanumériques Fusion et agrégation de données Traitement des variables de date et opérateurs de séries temporelles Gestion avancée des graphiques Stata Av2 : Programmation avec Stata Les macros locales et globales Les boucles, les sommes et les compteurs, les variables temporaires Programmer pour reproduire Exemples d’application Stata Av3 : Méthodes d’estimations, tests et prédictions La régression linéaire avec variables qualitatives et interactions Présenter les résultats dans un tableau synthétique et les exporter Tests de spécification et diagnostics Extension à d’autres méthodes d’estimation Stata Av4 : Introduction à l’estimation sur données de panel Structurer et visualiser les données Modèle à effets fixes Modèles à effets aléatoires Quelques extensions Analyse Statistiques théoriques et appliquées Inter-entreprise Intra-entreprise Distanciel Présentiel Anglais Français Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2 Découvrir Stata, traitement des dates et analyse des séries temporelles : Series Temp 1 et 2 Traiter et Analyser des séries temporelles avec Stata. Stata Séries Temp 1 : Une introduction au traitement et à l’analyse des séries temporelles Traitement des variables de date et opérateurs de séries temporelles Les graphiques spécifiques pour les séries temporelles Les méthodes de lissage pour corriger des variations saisonnières et/ou prédire Un exercice pratique Stata Séries Temp 2 : Quelques méthodes d’estimation spécifiques La régression linéaire à partir de séries temporelles La modélisation ARIMA La prévision Exercice synthétique Analyse Économétrie / Finance Statistiques théoriques et appliquées Intra-entreprise Distanciel Présentiel Français Anglais Découvrez le calendrier des prochaines formations Filtres Logiciels Catégorie Analyse Chimie / Bio Communication et rédaction scientifique Data Science Économétrie / Finance Ingénierie et développement Management du changement Open Source Process et métiers des laboratoires Publication Statistiques théoriques et appliquées Type de formation Coaching Conseil Inter-entreprise Intra-entreprise Modalité Blended Distanciel Présentiel Langue Allemand Anglais Français Italien Vous recherchez des informations sur une formation ? Vous souhaitez mettre en place une session de formation sur mesure ? Contactez notre équipe pédagogique ! Remarque : JavaScript est requis pour ce contenu. ChemDraw ChemDraw s’est imposé depuis longtemps comme la référence des logiciels de dessin de structures moléculaires. Afin de proposer à chaque utilisateur l’outil adapté à ses besoins, le logiciel existe maintenant en trois versions : ChemDraw Prime, ChemDraw Professional et Signals ChemDraw. Cette déclinaison permet de satisfaire les besoins de tous les chercheurs, étudiants et professeurs impliqués dans la chimie et les domaines connexes. ChemDraw Professional pour Mac et Signals ChemDraw intègrent maintenant un cahier de laboratoire électronique accessible via le cloud, permettant de collaborer facilement et sans contraintes. En savoir plus Formations à venir Communication et rédaction scientifique Intelligence Artificielle Générative pour la Veille scientifique – Concepts et applications Objectifs Décrire le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative. Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Synthétiser des articles et contenus scientifiques en produisant des résumés concis qui mettent en évidence les points clés et les conclusions principales. Améliorer sa veille technologique en configurant, personnalisant et automatisant des outils d’intelligence artificielle générative pour surveiller et résumer les dernières recherches publiées dans des domaines spécifiques. Identifier les points clés d’un domaine scientifique spécifique et détecter les sujets de recherche manquants nécessaires pour compléter un modèle théorique existant. Traduire des articles 21 et 28 janvier S'inscrire Demander un devis Formations à venir Analyse Formation modulaire à NVivo – Découvrir Nvivo Objectifs Comprendre le rôle de NVivo dans le processus de l’analyse qualitative. Comprendre et maîtriser l’environnement NVivo. Gestion des sources Gestion des cas Codage des sources Les matrices de croisement Documenter son analyse ; mémos, annotations et liens à. 27, 28, 29 et 30 janvier S'inscrire Demander un devis Formations à venir Communication et rédaction scientifique Intelligence Artificielle Générative pour l’Enseignement Recherche – Concepts et applications Objectifs Découvrer le principe de fonctionnement général du Deep Learning et de l’Intelligence Artificielle Générative et bénéficier du potentiel des outils d’IAG Utiliser des techniques de prompting avancées pour répondre à des besoins métier. Classifier les outils d’intelligence artificielle générative selon les médias mis en œuvre (text-to-text, text-to-image, etc.), et sélectionner le bon outil pour un cas d’usage précis. Produire des activités pédagogiques telles que des notes de cours, des guides d’étude, ou des résumés de chapitres pour aider les étudiants dans leur apprentissage. Concevoir des examens et des quiz à partir du contenu de formation développé pour les étudiants et gagner du temps dans la préparation de vos cours Générer des scénarios ou cas d’étude pour des travaux de groupe, basés sur des sujets d’actualité ou des avancées scientifiques pour décupler les possibilités d’animations de cours (contenu, ateliers de groupes, etc.) Adapter son enseignement et préparer ses apprenants à la révolution de l’IAG 28 janvier04 février S'inscrire Demander un devis Formations à venir Analyse Origin : Fonctions de base Objectifs Importer des données de formats variés Réaliser des graphiques et les personnaliser (styles, templates, thèmes) Traiter les données et automatiser les calculs Réaliser des ajustements de données, créer ses propres fonctions d’ajustement Détecter et déconvoluer des pics 24 et 25 mars S'inscrire Demander un devis Formations à venir Analyse Graphiques scientifiques avec PRISM Objectifs Découvrir l’ensemble des possibilités offertes par PRISM pour obtenir le graphique que l’on souhaite, tracé automatique des courbes d’ajustement compris. 16 et 17 juin S'inscrire Demander un devis Formations à venir Analyse Formation modulaire à NVivo – Approfondissement de NVivo Objectifs Échanger avec les participants sur leurs pratiques de NVivo et approfondissement des connaissances et compétences suivantes : Maitriser l’environnement NVivo. Gestion des sources Gestion des cas Codage des sources Requêtes et matrices Documenter son analyse ; mémos, annotations et liens à. Visualisation et exportation L’importation et l’utilisation des données provenant des réseaux sociaux et du web Le travail collaboratif et la comparaison d’encodeur. 07, 08, 09 et 10 juillet S'inscrire Demander un devis Previous Next Découvrez le calendrier des prochaines formations