Publié le 9 novembre 2020

  • theses.fr > Recherche > la chaîne de caractères "ecoleDoctorales:sciences exactes et applications AND dateSoutenance:[2018-01-01T23:59:59Z TO 2018-12-31T23:59:59Z]" dans toutes les thèses, répondants au(x) critère(s) suivant(s) : dates de soutenance : de à + école(s) doctorale(s) : "École doctorale sciences exactes et leurs applications" et "École doctorale sciences exactes et leurs applications (Pau, Pyrénées Atlantiques > réponses triées par dates de soutenance croissantes

    • Recherche d’entités nommées complexes sur le web : propositions pour l’extraction et pour le calcul de similarité by Armel Fotsoh Tawaofaing

      1 janv. 2018 01:00

      Les récents développements des nouvelles technologies de l’information et de la communication font du Web une véritable mine d’information. Cependant, les pages Web sont très peu structurées. Par conséquent, il est difficile pour une machine de les traiter automatiquement pour en extraire des informations pertinentes pour une tâche ciblée. C’est pourquoi les travaux de recherche s’inscrivant dans la thématique de l’Extraction d’Information dans les pages web sont en forte croissance. Aussi, l’interrogation de ces informations, généralement structurées et stockées dans des index pour répondre à des besoins d’information précis correspond à la Recherche d’Information (RI). Notre travail de thèse se situe à la croisée de ces deux thématiques. Notre objectif principal est de concevoir et de mettre en œuvre des stratégies permettant de scruter le web pour extraire des Entités Nommées (EN) complexes (EN composées de plusieurs propriétés pouvant être du texte ou d’autres EN) de type entreprise ou de type événement, par exemple. Nous proposons ensuite des services d’indexation et d’interrogation pour répondre à des besoins d’informations. Ces travaux ont été réalisés au sein de l’équipe T2I du LIUPPA, et font suite à une commande de l’entreprise Cogniteev, dont le cœur de métier est centré sur l’analyse du contenu du Web. Les problématiques visées sont, d’une part, l’extraction d’EN complexes sur le Web et, d’autre part, l’indexation et la recherche d’information intégrant ces EN complexes. Notre première contribution porte sur l’extraction d’EN complexes dans des textes. Pour cette contribution, nous prenons en compte plusieurs problèmes, notamment le contexte bruité caractérisant certaines propriétés (pour un événement par exemple, la page web correspondante peut contenir deux dates : la date de l’événement et celle de mise en vente des billets). Pour ce problème en particulier, nous introduisons un module de détection de blocs qui permet de focaliser l’extraction des propriétés sur des blocs de texte pertinents. Nos expérimentations montrent une nette amélioration des performances due à cette approche. Nous nous sommes également intéressés à l’extraction des adresses, où la principale difficulté découle du fait qu’aucun standard ne se soit réellement imposé comme modèle de référence. Nous proposons donc un modèle étendu et une approche d’extraction basée sur des patrons et des ressources libres.Notre deuxième contribution porte sur le calcul de similarité entre EN complexes. Dans l’état de l’art, ce calcul se fait généralement en deux étapes : (i) une première calcule les similarités entre propriétés et (ii) une deuxième agrège les scores obtenus pour le calcul de la similarité globale. En ce qui concerne cette première étape, nous proposons une fonction de calcul de similarité entre EN spatiale, l’une représentée par un point et l’autre par un polygone. Elle complète l’état de l’art. Notons que nos principales propositions se situent au niveau de la deuxième étape. Ainsi, nous proposons trois techniques pour l’agrégation des scores intermédiaires. Les deux premières sont basées sur la somme pondérée des scores intermédiaires (combinaison linéaire et régression logistique). La troisième exploite les arbres de décisions pour agréger les scores intermédiaires. Enfin, nous proposons une dernière approche basée sur le clustering et le modèle vectoriel de Salton pour le calcul de similarité entre EN complexes. Son originalité vient du fait qu’elle ne nécessite pas de passer par le calcul de scores de similarités intermédiaires.

    • Etude expérimentale de l'adsorption du méthane dans des gaz de schistes colombiens et de la séparation méthane/dioxyde de carbone by Olga Ortiz Cancino

      1 janv. 2018 01:00

      Dans cette thèse, nous avons développé 3 travaux principaux dans lesquels le phénomène d'adsorption joue un rôle prédominant.Selon le BP Statistical Review, le ratio réserves/production de la Colombie est proche de 12 et actuellement, toute la production de gaz naturel provient des réserves conventionnelles; para ailleurs, les réserves non conventionnelles de gaz techniquement récupérables sont 12 fois plus élevées que les conventionnelles. La plupart d’entre elles sont situées dans le Middle Magdalena Valley bassin (MMV). Dans ce contexte, nous avons mesuré la capacité d'adsorption du CH4 sur 5 échantillons obtenus de 3 forages exploratoires situés dans le MMV. Les mesures ont été réalisées à 50 et 75°C et pour pressures jusqu'à 3.5MPa. Les caractérisations géochimiques et structurales ont été réalisées à l'Université Autonome de Madrid. L'effet du carbone organique total (TOC), de la maturité thermique, de la teneur en argile et de la surface spécifique (SSA) sur la capacité d'adsorption du CH4 ont été étudiées. Les résultats montrent que la température a un effet négatif sur la capacité d'adsorption, et le TOC a un effet positif. Aucune corrélation n'a été observée entre la teneur en argile et la capacité d'adsorption normalisée en TOC par rapport au CH4, ce qui indique que les minéraux argileux ne contribuent pas significativement à l'adsorption du CH4 dans nos échantillons. De plus, il n'y a pas de tendance générale entre le TOC normalisé et la maturité thermique. Parmi les facteurs étudiés le TOC a la contribution majeure à la capacité d'adsorption. Une contribution similaire est trouvée pour la SSA, ce qui est cohérent, compte tenu de la corrélation positive entre le TOC et la SSA. Cet ensemble de données représente des informations significatives pour les estimations indirectes du gaz en place au cours des futures stratégies de récupération. Cette étude approfondit les projets en cours sur la compréhension de l'effet d'adsorption sur la production et l'évaluation du gaz de schiste de la Colombie. En plus, nous avons réalisé une étude sur l'adsorption sélective de CH4/CO2 sur un gaz de schiste, précédemment caractérisé. La capacité d'adsorption et l'enthalpie du CO2 et du CH4 à 50°C et pour pressions jusqu'à 3.2MPa ont été mesurées. De plus, les isothermes d'adsorption du mélange équimolaire CH4/CO2 ont été réalisées jusqu'à 2MPa à 50°C. Les résultats montrent que le CO2 est préférentiellement adsorbé par rapport au CH4, tant à l'état pur que dans le mélange équimolaire. La sélectivité estimée CO2/CH4 met en évidence une affinité significative du CO2 avec le kérogène de cet échantillon. Ces résultats sont d'un grand intérêt d'un point de vue industriel, car ils signifient que ce schiste pourrait être candidat à l'injection du CO2 comme méthode de récupération assistée et pour le stockage du CO2 quand il était épuisé.Enfin, sachant que les impacts environnementaux et sociétaux de la séparation et de la capture du CO2, nous avons exploré la séparation du CO2 d'un mélange équimolaire CH4/CO2 en utilisant des adsorbants de nanoparticules de silice (natives et fonctionnalisées avec des amines) développés à l'Université de Vigo. Nous avons mesurée la capacité d'adsorption et l'enthalpie du CO2 et du CH4 à 50°C et des pressions jusqu'à 3MPa et la capacité d'adsorption d'un mélange équimolaire CH4/CO2 à 50°C et jusqu'à 2MPa dans les deux séries de nanoparticules. Les résultats ont montré une adsorption préférentielle du CO2 sur le CH4, mais l'adsorption du CO2 est plus faible dans les particules natives que dans les particules fonctionnalisées. Cependant, les particules natives sont prometteuses pour la capture du CO2. La valeur de la sélectivité du CO2 par rapport au CH4 est presque identique pour les deux échantillons, cela signifie que le processus de fonctionnalisation n'a pas amélioré la performance des particules dans ce cas. Ces résultats obtenus sur la silice native ouvrent des perspectives et une ligne de travail.

    • Contribution à la Résolution Numérique de Problèmes Inverses de Diffraction Élasto-acoustique by Izar Azpiroz

      1 janv. 2018 01:00

      La caractérisation d’objets enfouis à partir de mesures d’ondes diffractées est un problème présent dans de nombreuses applications comme l’exploration géophysique, le contrôle non-destructif, l’imagerie médicale, etc. Elle peut être obtenue numériquement par la résolution d’un problème inverse. Néanmoins, c’est un problème non linéaire et mal posé, ce qui rend la tâche difficile. Une reconstruction précise nécessite un choix judicieux de plusieurs paramètres très différents, dépendant des données de la méthode numérique d’optimisation choisie.La contribution principale de cette thèse est une étude de la reconstruction complète d’obstacles élastiques immergés à partir de mesures du champ lointain diffracté. Les paramètres à reconstruire sont la frontière, les coefficients de Lamé, la densité et la position de l’obstacle. On établit tout d’abord des résultats d’existence et d’unicité pour un problème aux limites généralisé englobant le problème direct d’élasto-acoustique. On analyse la sensibilité du champ diffracté par rapport aux différents paramètres du solide, ce qui nous conduit à caractériser les dérivées partielles de Fréchet comme des solutions du problème direct avec des seconds membres modifiés. Les dérivées sont calculées numériquement grâce à la méthode de Galerkine discontinue avec pénalité intérieure et le code est validé par des comparaisons avec des solutions analytiques. Ensuite, deux méthodologies sont introduites pour résoudre le problème inverse. Toutes deux reposent sur une méthode itérative de type Newton généralisée et la première consiste à retrouver les paramètres de nature différente indépendamment, alors que la seconde reconstruit tous les paramètre en même temps. À cause du comportement différent des paramètres, on réalise des tests de sensibilité pour évaluer l’influence de ces paramètres sur les mesures. On conclut que les paramètres matériels ont une influence plus faible sur les mesures que les paramètres de forme et, ainsi, qu’une stratégie efficace pour retrouver des paramètres de nature distincte doit prendre en compte ces différents niveaux de sensibilité. On a effectué de nombreuses expériences à différents niveaux de bruit, avec des données partielles ou complètes pour retrouver certains paramètres, par exemple les coefficients de Lamé et les paramètres de forme, la densité, les paramètres de forme et la localisation. Cet ensemble de tests contribue à la mise en place d’une stratégie pour la reconstruction complète des conditions plus proches de la réalité. Dans la dernière partie de la thèse, on étend ces résultats à des matériaux plus complexes, en particulier élastiques anisotropes.

    • Modélisation de l'apport d'énergie par combustibles alternatifs dans les fours tournants de production de ciment by Baby-Jean Robert Mungyeko Bisulandu

      1 janv. 2018 01:00

      En raison de l'épuisement des combustibles fossiles et en raison de son coût croissant, les déchets ont été utilisés comme combustibles alternatifs dans les fours rotatifs à ciment pendant plusieurs années. Afin de répondre aux exigences de protection de l'environnement et de qualité du produit final, il est nécessaire de comprendre et de quantifier les différents processus intervenant dans le four. Dans le cadre de cette thèse, nous nous sommes intéressés à la substitution partielle des déchets (pneus usés et Refuse Derived Fuel « RDF ») et biomasse (résidus d’agriculture) dans les fours tournants de production de ciment à un taux de 50 % d’apport énergétique. Le présent projet de thèse a été financé par la République Démocratique Congo, porté par l’Université Kongo (UK), dans le cadre du renfoncement des capacités des universités congolaises. Les travaux de recherche ont été réalisés au sein du Laboratoire de Thermique, Energétique et Procédés (LaTEP) de l’Ecole Nationale Supérieure en Génie de Technologies Industrielles (ENSGTI)/Université de Pau et des Pays de l’Adour (France), dans le but d’étudier et de comprendre les phénomènes thermochimiques se déroulant dans les fours tournants de production de ciments, dans le cas de substitution partielle des combustibles fossiles par des combustibles alternatifs. Pour cela, un modèle mathématique à deux sous-modèles a été établi : - Le modèle monodimensionnel stationnaire du lit de solides et de l’enveloppe du four, caractérisé dans sa première partie par le mélange de la farine de ciment, de déchets et/ou biomasse, et de gaz, et alors que dans sa deuxième partie par les échanges thermiques. Le travail de modélisation est effectué à l'aide du langage de programmation Fortran 90 dans lequel sont implémentées les équations de conservations de la masse, des espèces et de l’énergie, l’équation de transport de la charge, ainsi que les équations algébriques. - Le modèle tridimensionnel instationnaire, repose sur l’utilisation de la mécanique des fluides numérique, et l’outil commercial Fluent a été retenu pour représenter les processus se déroulant au-dessus de la surface libre du lit.Le modèle complet est le couplage entre les deux sous modèles, étant donné les échanges qui s’y effectuent.Deux grands groupes de simulations ont été réalisés dans cette thèse : le cas monodimensionnel et le cas global (couplage Modèle 1D-Modèle 3D). Dans les deux situations, les simulations ont été effectuées dans le cas de fonctionnement au fuel lourd seul, puis dans celui du fonctionnement avec substitution partielle du combustible fossile par les combustibles alternatifs. Pour le modèle monodimensionnel, les simulations ont été effectuées en imposant les flux de chaleur dans la surface libre du lit et dans la paroi découverte. Alors que pour le modèle global, les simulations ont été effectuées en considérant les densités de flux de chaleur associées aux phénomènes physico-chimiques (combustion du fuel lourd, rayonnement, turbulence) se déroulant dans le volume de gaz situé au-dessus de la surface libre du lit.Les résultats ainsi obtenus nous ont permis de conclure sur l’importance de mener en amont une étude expérimentale dans un four tournant à l’échelle pilote afin de pouvoir disposer des ordres de grandeur des différents flux de chaleur au sein du four tournant. Les résultats obtenus nous ont également permis de nous rendre compte de la nécessité de disposer de la géométrie exacte (emplacement) du brûleur dans le four tournant.

    • Étude par microscopie optique de la nucléation, croissance et dissociation des hydrates de gaz by Abdelhafid Touil

      1 janv. 2018 01:00

      La nucléation, la croissance et la dissociation des hydrates de gaz au voisinage d’un ménisque eau – gaz dans des capillaires de verre sont étudiées par vidéo-microscopie et spectroscopie Raman à température, pression, mouillabilité et géométrie du substrat contrôlées. Dans ce travail, deux hydrates simples de structure I (hydrate de CO2 et hydrate de CH4), deux hydrates simples de structure II (N2 et Cyclopentane) et un hydrate double (cyclopentane + CO2) sont examinés. En baissant la température bien au-dessous de 0 °C, i.e., sous un fort sous-refroidissement, tous ces hydrates, excepté l’hydrate de cyclopentane, nucléent sans que la glace soit formée. L’hydrate forme d’abord une croûte polycristalline sur le ménisque eau-molécule invitée (guest). Ensuite, il se propage rapidement à partir de ce ménisque dans l’eau sous forme de fibres ou dendrites et le long de la paroi capillaire sous forme d’une croûte fine et polycristalline appelée ”halo”. Sur un substrat hydrophile, ce halo avance du côté de la phase invitée, alimenté par une couche d’eau entre le halo et la paroi interne du capillaire. Symétriquement, sur un verre hydrophobe (traité au silane), le halo et une couche de la phase invitée se propagent du côté eau. Aucun halo n’est observé sur un substrat de mouillabilité intermédiaire. La croissance et la morphologie du halo d’hydrate et l’épaisseur de sa couche sous-jacente d’eau (ou de phase invitée) dépendent fortement du sous-refroidissement. Grâce au faible volume du capillaire utilisé et à la vitesse rapide de refroidissement, la limite de métastabilité de l’hydrate de CO2 est approchée pour différentes pressions et mouillabilité. Le régime des faibles sous-refroidissements est également étudié : une nouvelle morphologie d’hydrate de CO2 est découverte pour des sous-refroidissements inférieurs à 0,5 °C, constituée d’un cristal creux, générée au niveau du ménisque eau – guest et avançant du côté guest le long du verre, alimenté par une épaisse couche d’eau prise en sandwich entre le verre et ce cristal. Une nouvelle procédure est proposée pour détermination des conditions d’équilibre des hydrates de gaz dans une large plage de température et de pression, y compris l’extension métastable de la ligne triphasique (eau liquide – hydrate – guest) jusqu’à des températures bien inférieures à 0 °C. Enfin, les mécanismes par lesquels le CO2 et le cyclopentane agissent en synergie pour former l’hydrate de structure II sont discutés.

    • Fundamental study of wax deposition under real flow conditions by Felipe Pereira Fleming

      1 janv. 2018 01:00

      Depuis le début des années 1980, des efforts ont été déployés pour modéliser le phénomène complexe de dépôt de cire. Au fil des années, l'évaluation critique des mécanismes de dépôt de cire proposés initialement à travers un solide contexte physique commence à faire place à des algorithmes flexibles qui pourraient être adaptés à différents scénarios expérimentales. Dans une tentative d'étudier le phénomène de manière fondamentale, le travail actuel a proposé une stratégie de recherche qui permettrait d'évaluer chaque partie du modèle complexe de dépôt de cire et de garantir leur démarche dans des conditions optimales. Pour atteindre ce objectif, une nouvelle stratégie d'évaluation des modèles thermodynamiques des équilibre des phases solide-liquide a été développée. Les résultats ont montré que le modèle utilisé était suffisamment robuste pour décrire précisément le comportement de phase solide-liquide des mélanges des mélanges asymétriques aux pressions ordinaires et élevées, ainsi que pour décrire le comportement d’une mélange complexe comme les échantillons de Diesel. Pour assurer la base physique solide des modèles utilisés dans ce travail, la mesure de la conductivité thermique des n-alcanes lourds dans les phases liquides et solides a été réalisée et rapportée pour la première fois. Enfin, un modèle CFD drift flux solide-liquide a été proposé. Couplé à un modèle thermodynamique pour fournir des données sur les équilibres de phase et les propriétés, le modèle a été utilisé pour étudier les résultats expérimentaux disponibles.Le mécanisme de dépôt de cire évalué était celui proposé par Merino-Garcia. Les résultats ont montré un accord qualitatif entre le modèle et les résultats expérimentaux, mais le modèle sous estimait la largeur du dépôt. D'autre part, la conductivité thermique du dépôt correspond à la conductivité thermique expérimentale récemment disponible d'un tel dépôt mesurée dans des conditions d'écoulement réelles. Ce fait renforce les conclusions présentées que le dépôt de cire n'est pas un phénomène de mécanisme unique après tout.

    • Évaluation du Potentiel des Rapports Isotopiques Stables du Strontium et du Plomb pour l'Origine Géographique et l'Authenticité des Produits Alimentaires by Ekaterina Polekh-Epova

      1 janv. 2018 01:00

      L'authenticité et la traçabilité des aliments gagnent un intérêt croissant au cours de la dernière décennie puisque la connaissance de la provenance des aliments est considérée comme une garantie supplémentaire de leur qualité. Les consommateurs ont également des inquiétudes et des préoccupations par l'origine de la nourriture qu'ils consomment car divers produits sont sujets à l'adultération ou à la fausse dénomination. L'intérêt accru à l’égard de la protection des consommateurs et de la lutte antifraude ont entraîné un accroissement de la recherche scientifique appliquée et le développement d'outils efficaces pour contrôler l'authenticité des produits alimentaires. Entre techniques analytiques appliquées à l'authenticité et à la traçabilité des aliments, les méthodes les plus prometteuses sont basées sur les empreintes d'éléments lourds mesurées par la spectroscopie atomique. La spectrométrie de masse à multicollection à couplage à plasma induit (MC-ICP-MS) est reconnue comme la méthode optimale pour effectuer des mesures de haute précision de nombreux éléments du tableau périodique en contrôlant simultanément les rapports entre leurs isotopes stables. Cette étude présente une nouvelle stratégie analytique basée sur des isotopes stables non-traditionnels combinés avec des éléments traces déterminés par ICP-MS. Les avantages de combiner les informations de deux systèmes isotopiques, l'un traçant le sol (Sr), et l'autre traçant la pollution environnementale ambiante (Pb), ont permis d'obtenir de nouvelles informations exceptionnelles sur la traçabilité et l'authenticité des matrices alimentaires sélectionnées : vins de Bordeaux, jambons secs et thé. En utilisant des techniques analytiques complémentaires telles que les empreintes des élémentaires traditionnelles, la spécification régionale, ainsi que le traçage du processus de préparation des aliments sont possibles. Traitée par la chimiométrie, cette approche analytique constitue un nouvel outil efficace et prometteur pour détecter des fraudes alimentaires, y compris l’imitation de produits de grande valeur, l’étiquetage erroné et la substitution par des produits moins cher.

    • Nouvelles stratégies d’introduction d’échantillon en MC-ICP-MS pour la bio-géochimie isotopique du mercure en ultra-trace by Sylvain Bérail

      1 janv. 2018 01:00

      En complément des analyses de concentration et de spéciation, les analyses des isotopes stables du mercure par MC-ICP-MS sont à l’heure actuelle un outil majeur pour tracer les sources et les transformations de cet élément dans l’environnement. Cette thèse propose le développement de techniques de pré-concentrations couplées au MC-ICP-MS afin de réaliser des analyses isotopiques de mercure au niveau du ng.L-1 (Ultra-trace). La stratégie de pré-concentration en ligne va générer des signaux transitoires courts dont la gestion en MC-ICP-MS représente un réel défi. Afin d’y répondre, une méthode de traitement de données adaptée à ce type de signaux ainsi qu’une méthode de correction du phénomène de dérive isotopique ont été développées. Dans le but de déterminer des compositions isotopiques en mercure total à de faibles concentrations, le couplage d’une génération de vapeur froide, d’une double amalgamation sur or (CVG-DGA) et d’un MC-ICP-MS a été développé. Cette nouvelle technique donne des précisions externes de l’ordre de 0.20 à 0.30‰ (2SD) pour des concentrations en mercure de 5 ng.L-1 en solution. Cette thèse présente également une nouvelle méthode d’analyse isotopique par espèce chimique (CSIA) réalisée à l’aide du couplage d’une chromatographie en phase gazeuse équipée d’un injecteur PTV (GC-PTV) et d’un MC-ICP-MS. Celle-ci permet l’analyse isotopique de plusieurs espèces chimiques avec des précisions externes de l’ordre de 0.30 à 0.40‰ (2SD) pour des concentrations en mercure de 150 ng.L-1 dans des échantillons biologiques.Les développements analytiques de cette thèse ont permis de mesurer directement et de façon automatisée des compositions isotopiques de mercure à des niveaux d’ultra-trace (jusqu’à 5ng.L-1) tout en conservant des précisions compatibles avec les principales questions environnementales posées. Ceci va permettre d’analyser des compartiments environnementaux contenant de faibles quantités de mercure (eaux naturelles, planctons,…) et ouvre ainsi de nouvelles perspectives pour une meilleure compréhension du cycle bio-géochimique du mercure.

    • Calcul Moulien, Arborification, Symétries et Applications by Jordy Palafox

      1 janv. 2018 01:00

      Ce travail de thèse porte principalement sur l'utilisation du calcul moulien et de la technique d'arborification introduits par Jean Ecalle dans les années 70 et leurs applications à l'étude des systèmes dynamiques discrets ou continus.L'une des contributions est une étude systématique des conditions sous lesquelles l'arborification permet de restaurer la convergence de séries formelles via l'introduction d'une notion d'invariance d'un moule sous arborication. Ces résultats permettent de donner une preuve détaillée du théorème de Brjuno de linéarisation analytique des champs de vecteurs telle qu'elle est proposée par Jean Ecalle dans son article "Singularités non abordables par la géométrie". Ces résultats ont été obtenus en collaboration avec Dominique Manchon (Université de Clermont Ferrand) et Jacky Cresson.La puissance du calcul moulien est ensuite illustrée par la résolution presque complète de la conjecture de Jarque-Villadelprat sur les centres isochrones Hamiltoniens. Cette conjecture stipule qu'il n'existe pas de champs de vecteurs polynomiaux du plan de degré pair qui soit hamiltonien. L'examen de la structure algébrique de la correction, introduite dans les années 90 par G. Gallavotti et généralisée ensuite par Jean Ecalle et Bruno Vallet, et son calcul explicite via le calcul moulien, nous ont permis d'obtenir des conditions explicites d'obstructions à l'isochronisme. L'aspect algébrique et combinatoire de ces objets et méthodes conduisent naturellement à une classication des conditions de centre via une notion de complexité. L'arborication quand à elle permet l'unification de nombreuses approches et une simplication de divers travaux, notamment ceux de J.C.Butcher autour de la structure algébrique des méthodes de Runge-Kutta qui a induit ce que les numériciens appellent des B-séries. En étudiant la structure algébrique de l'opérateur de substitution associé à un difféomorphisme, en particulier celui relié à une méthode de Runge-Kutta et celui associé à la solution de l'équation diérentielle sous-jacente, on présente le codage de Butcher comme une traduction particulière de l'arborification directe de l'opérateur de substitution. Notons que ce phénomène est large et permet d'inclure les travaux plus récents sur l'approche par trajectoires rugueuses des solutions d'équations différentielles stochastiques.Une seconde partie de la thèse concerne la recherche des groupes de symétries de Lie des tissus du plan en suivant une approche d'Alain Hénaut (Université de Bordeaux). Ce travail nous a permis de préciser la relation entre la dimension de ces groupes de symétries et le caractère linéarisable ou hexagonale des tissus du plan. Dans le cas des arrangements de droites, on obtient ainsi une relation profonde entre le module de dérivations de Saito associé à l'arrangement et le groupe de symétrie du tissu associé.

    • Programmation nutritionnelle de la crevette du Pacifique à pattes blanches Litopaneus vannamei by Luis Paulo Araujo Lage

      1 janv. 2018 01:00

      Ce travail de thèse a eu pour objectif de tester pour la première fois le concept de programmation nutritionnelle chez la crevette Litopaneus vannamei. La première question était de savoir à quel moment le stimulus précoce devait se faire lors du développement de la crevette. Dans ce but, nous avons déterminé deux fenêtres de développement (stades protozoea et post-larvae) pendant lesquelles la plasticité moléculaire pour le métabolisme semblait optimale (publication n°1). La deuxième question portait sur le choix du stimulus environnemental que nous voulions utiliser. Nous avons pris comme stimulus nutritionnel la restriction de la prise alimentaire (restriction énergétique) sachant que ce stimulus pouvait avoir des impacts forts sur le métabolisme de l’adulte chez de nombreuses espèces animales. Nous avons pu démontrer qu’une restriction alimentaire de 40 % (40% de baisse de quantité d’aliment distribuée) dans la phase protozoe (4 jours) et de 70% dans la phase post-larvae (3 jours) était réalisable sans que cela n’induise de baisse de survie et de pertes de performances de croissance des animaux. La restriction alimentaire au stade protozoe n’a pas permis d’observer à long terme des modifications des performances de croissance et du métabolisme (au niveau moléculaire) (publication n°3). Par contre, la restriction alimentaire au stade post-larvae a été un succès concernant la programmation : les performances de croissance, l’utilisation des aliments (avec différents ratios de protéines/glucides) et le métabolisme (au niveau moléculaire) ont été (positivement) affectés par le stimulus précoce chez les animaux juvéniles (publication n°2). Nos travaux originaux et prometteurs nous permettent donc d’envisager dans le futur des expériences de programmation précoce (via la nutrition ou autres facteurs environnementaux) afin de piloter la nutrition des crevettes en aquaculture.

    • Fabrication et caractérisation de cellules solaires à base de polymères organiques low-bandgap nanostructurés by Edilene Assunção da Silva

      1 janv. 2018 01:00

      Les cellules solaires polymériques attirent un grand intérêt dans ce domaine de recherche, en raison du faible coût, du procédé de fabrication de grandes surfaces, des matériaux de manutention légers et de la possibilité de leur fabrication par diverses techniques. Pour une bonne efficacité des dispositifs photovoltaïques, la couche active doit contenir une bonne absorption de la lumière du soleil. En termes de bandgap,cela signifie que plus le bandgap est petit, plus le flux de photons absorbés est grand. Une manière d'accomplir ceci avec les matériaux polymères est la synthèse d'un copolymère alterné dans lequel le bandgap optique est diminué, ce que l'on appelle des polymères low-bandgap. L'organisation joue un rôle important dans la performance des dispositifs, y compris les dispositifs photovoltaïques, et la technique Langmuir-Schaefer (LS) permet de fabriquer des films nanostructurés avec contrôle de l'épaisseur, qui peuvent servir de base pour construire de meilleurs dispositifs. Dans ce contexte, l'objectif de ce travail était de synthétiser des polymères low-bandgap et ensuite de fabriquer et caractériser des films LS de ces polymères et leurs mélanges avec un dérivé de fullerène, le PCBM, pour leur application en tant que couche active de cellules solaires. Les films LS des polymères et leurs mélanges avec PCBM ont été fabriqués et des mesures de caractérisation ont été effectuées. Ces films ont été caractérisés par des mesures électriques (courant vs tension, spectroscopie d'impédance et voltampérométrie cyclique), morphologiques (microscopie à force atomique) et optiques (UV-visible, diffusion Raman et transmission infrarouge). Par les films de Langmuir et les mesures morphologiques, il a été possible d'observer les caractéristiques spécifiques concernant la conformation de chaque polymère sous forme de film. Des mesures optiques confirment l'absorption aux longueurs d'onde élevées attendues pour ces polymères. Dans les mesures électriques, les résultats ont montré des conductivités différentes pour les mêmes matériaux lorsque les types d'électrodes ont été changés. Les dispositifs photovoltaïques des films LS fabriqués n'ont pas atteint de bonnes valeurs d'efficacité. Les films spin-coating de ces polymères testés en tant que couche active des dispositifs, sous atmosphère contrôlée, ont montré unefficacité allant jusqu'à 0,6%.

    • Etude de nouvelles architectures modulaires d'alimentations électriques pour les applications de hautes puissances pulsées. by Florian Allard

      1 janv. 2018 01:00

      De nos jours, pour accroître le potentiel applicatif des machines de hautes puissances pulsées, il est nécessaire de développer des modulateurs compacts capables de délivrer des impulsions de l’ordre de plusieurs Mégawatts de durée pouvant atteindre plusieurs centaines de microsecondes. Cette amélioration requiert le développement de structures innovantes dont le but est de produire aussi bien des puissances moyennes que des puissances crêtes importantes. Les modulateurs étudiés dans ce mémoire sont basés sur l’utilisation de divers transformateurs pour la génération d’impulsions de très forte puissance. Le projet AGIR (acronyme de « Architecture pour la Génération d’Impulsions Rectangulaires de forte de puissance ») est réalisé dans le cadre d’un RAPID (Régime d’Appui Pour l’Innovation Duale) financé par la Direction Générale de l’Armement (DGA). Le projet est une collaboration avec EFFITECH, une entreprise spécialisée dans les puissances pulsées. L’objectif est de développer deux générateurs pour deux gammes de puissance crête (jusqu’à 10MW pour l’un et 1GW pour l’autre). Le premier modulateur « AGIR1 » repose sur l’association d’un convertisseur AC-DC et de 12 convertisseurs résonants DC-DC qui permettent la génération de plusieurs types d’impulsions (fort courant ou forte tension) en fonction de la configuration choisie. Le second modulateur repose sur le développement d’un transformateur impulsionnel à quatre primaires synchronisés. Chaque primaire est relié à un système de mise en forme de type Blumlein dont le déclenchement est assuré par un éclateur pressurisé à trois électrodes. La synchronisation des quatre éclateurs est assurée par un générateur impulsionnel innovant à faible gigue. La principale difficulté du travail effectué au laboratoire réside dans l’étude des différents transformateurs haute-tension utilisés (résonant ou impulsionnel) et du système de synchronisation des éclateurs. Chaque élément constituant le système est étudié et simulé de manière électrostatique, électromagnétique ou électrique avant d’être réalisé et assemblé. Des essais ponctue l’étude afin de valider le fonctionnement en récurrent avec un système de dissipation thermique adapté.

    • Production et élimination des sulfures produits lors de la biométhanisation de boues de station de traitement des eaux usées domestiques : Procédés biologiques de sulfooxydation par des thiobacilles anaérobies facultatifs (projet SULFOX) by Abdelaziz El Houari

      1 janv. 2018 01:00

      Reconnu par leur effet toxique, inhibiteur et corrosif, les sulfures (S2-, SH-, SH2) sont un sous-produit indésirable de la digestion anaérobie des boues de station de traitement des eaux domestiques de la ville de Marrakech, Maroc (STEP). Ils proviennent essentiellement de la réduction "dissimilatrice" des composés soufrés (SO4 2-, SO3 2-, S2O4 2- ..) contenus dans ces boues. Ce processus est réalisé par un groupe bactérien anaérobie appelé bactéries sulfatoréductrices (BSR). Une fois dans le biogaz, les sulfures sous forme gazeuse réduisent en plus la durée de vie des installations et des équipements de la STEP. Elle est ainsi dotée d’installations biologiques et physico-chimiques lui permettant d’éliminer ces sulfures avant la transformation du biogaz en énergie électrique. Cependant, ces procédés sont onéreuses et grandes consommatrices d’énergies. D’où l’idée de minimiser la production des sulfures au sein même des digesteurs anaérobies. Pour cela, il était nécessaire d’abord de connaître les microorganismes à l'origine de la production des sulfures (BSR), ceux potentiellement impliqués dans leur élimination (bactéries sulfo-oxydantes), et d’un groupe de microorganismes fermentaires (Synergistetes) intervenant dans le bon fonctionnement de la digestion anaérobie. Ces études ont été menées à la fois sur des d'approches moléculaires et culturales. Les résultats obtenus, ont permis de comprendre comment ces groupes bactériens, d’intérêts écologique et économique importants, interviennent dans la digestion anaérobie des boues de la STEP permettant à la fois d’accélérer les processus d’oxydation de la matière organique combinée à la réduction des composés soufrés et de minimiser la concentration des en sulfure dans le biogaz.

    • Combinaisons huiles/solides pour le stockage thermocline : De l’étude des matériaux au modèle de stockage thermique by Sophie Molina

      1 janv. 2018 01:00

      Ces dernières décennies ont vu le développement exponentiel des technologies de stockage, du fait des contraintes de plus en plus fortes sur le secteur énergétique et les ressources fossiles, suscitant un intérêt croissant de la part des chercheurs et des industriels. Ces technologies trouvent en effet de multiples applications, par exemple en combinaison avec des sources d’énergie renouvelable pour pallier leur intermittence, ou en récupération de chaleur fatale sur les procédés industriels. De nombreux concepts ont été développés à ce jour, et parmi eux la solution thermocline dual-media, qui consiste à stocker l’énergie sous forme thermique dans un réservoir contenant le mélange d’un fluide et d’une matrice solide.C’est sur cette technologie que s’est focalisé le projet Therm’Stock, porté par le groupe CNIM et soutenu par les Investissements d’Avenir de l’ADEME. Ce projet, débuté en 2015, associe cette entreprise à trois laboratoires, dont le Laboratoire de Thermique Energétique et Procédés (LaTEP) de l’Université de Pau et des Pays de l’Adour. La contribution du LaTEP dans le projet a été centrée sur l’étude des matériaux de stockage à utiliser pour le système thermocline envisagé, avec un focus sur les huiles thermiques comme fluide caloporteur.Dans un premier temps, un recensement des huiles disponibles commercialement a été réalisé, afin de sélectionner les fluides répondant aux contraintes du projet Therm’Stock, et notamment à la gamme de température de fonctionnement visée. Les huiles sélectionnées ont ensuite été caractérisées à l’aide du matériel disponible au laboratoire, afin de définir un ordre de priorité pour leur étude. L’huile Jarytherm® DBT s’étant démarquée, c’est ce fluide qui a été choisi pour la suite des analyses.Ces analyses ont porté sur deux aspects d’intérêt pour le stockage thermocline dual-media : le vieillissement du fluide caloporteur, et sa compatibilité avec le matériau de stockage solide. Les études réalisées ont permis d’évaluer l’influence de différents paramètres sur le vieillissement de l’huile (température, durée), ainsi que sa compatibilité avec plusieurs familles de matériaux. Au total, ce sont 15 combinaisons huiles/solides qui ont été testées, sur 18 campagnes d’essai.Deux matériaux solides ont montré une compatibilité intéressante avec l’huile Jarytherm® DBT : l’acier et le verre soda-lime. Afin de compléter l’étude réalisée au laboratoire, ces deux combinaisons ont été introduites et testées dans un pilote de stockage thermocline dual-media, développé et exploité par Bertin Technologies, filiale du groupe CNIM. Certains des résultats obtenus ont été communiqués au LaTEP, et ont permis une étude à échelle pilote des performances du stockage avec les matériaux sélectionnés. Cette analyse a par la suite été complétée par une étude numérique, au travers du développement d’un modèle spécifique de stockage thermique. L’utilisation de ce modèle a permis de confirmer et d’étendre les résultats expérimentaux obtenus sur le pilote de Bertin Technologies, mais également d’intégrer les données de vieillissement générées sur le banc d’essai du laboratoire.

    • Structure microscopique et propriétés interfaciales de fluides confinés dans des matériaux poreux de diverses géométries by Thomas Bernet

      1 janv. 2018 01:00

      L’étude du phénomène d’adsorption peut être réalisée théoriquement dans le cadre de la physique statistique, à l’échelle microscopique, en mettant en jeu une interface entre un fluide et un solide. L’objectif de cette thèse est de proposer une modélisation moléculaire de fluides tels que le méthane, confinés dans des matériaux poreux de géométrie quelconque. Le cadre théorique est ainsi directement développé à l’échelle microscopique et ses résultats sont confrontés à ceux obtenus avec des simulations moléculaires. À l’échelle macroscopique, le formalisme théorique nous permet de retrouver des résultats expérimentaux tels que des isothermes et des chaleurs d’adsorption.Tout d’abord, nous présentons les principaux résultats de la théorie de la fonctionnelle de la densité classique (cDFT), qui permet de formuler les lois de la physique statistique à partir de la densité du fluide en chaque point de l’espace. Cette théorie permet de décrire des fluides inhomogènes, c’est-à-dire des fluides pour lesquels la densité n’est pas constante en tout point de l’espace. Nous devons également considérer une équation d’état moléculaire de référence. Nous choisissons pour cela la théorie statistique des fluides associatifs (SAFT), formulée à partir de l’énergie libre du système. Le potentiel d’interaction d’une molécule telle que le méthane est alors modélisé comme celui d’une sphère dure entourée d’une couronne attractive. Nous décrivons la sphère dure à l’aide de la théorie de la mesure fondamentale (FMT), qui utilise des densités pondérées, c’est-à-dire des fonctions exprimées en un point de l’espace, mais qui dépendent du voisinage immédiat de ce point. Les fonctions pondérées sont nécessaires pour modéliser les fluides inhomogènes confinés à l’échelle microscopique. L’étude menée à partir de la FMT nous a conduit à définir de nouvelles fonctions pondérées, permettant de décrire des fluides de sphères attractives.Dans ce nouveau cadre théorique, il est nécessaire d’utiliser des approximations dans l’écriture de la fonctionnelle d’énergie libre. Nous proposons quatre approches, avec lesquelles nous pouvons prédire la distribution de la densité du fluide dans l’espace. Ces profils étant décrits à l’échelle microscopique, nous avons réalisé des simulations moléculaires de type Monte Carlo pour en évaluer la qualité par comparaison, pour des systèmes définis à potentiel équivalent. Nous retenons alors une des nouvelles formulations décrivant le fluide inhomogène. Puis, nous nous intéressons à la modélisation du solide. De nombreuses approches utilisent des expressions analytiques des densités pondérées, ce qui ne permet d’étudier que des milieux poreux à géométrie simple et idéale. Dans le cadre de cette thèse, nous écartons ce type d’approche et nous proposons de calculer les densités pondérées à l’aide de transformées de Fourier rapides dans un espace à trois dimensions, pour une forme quelconque de pore. La conséquence numérique de cette approche est que l’on considère un espace de calcul discret. Cela demande alors d’utiliser des résultats mathématiques issus de la géométrie discrète, afin de décrire correctement les interactions entre le fluide et une surface solide discrète quelconque.Cette nouvelle combinaison entre la théorie de la fonctionnelle de la densité et la géométrie discrète permet notamment d’étudier l’adsorption de méthane dans des pores cylindriques de silice. Nous réalisons en même temps des mesures expérimentales avec ce système, en nous servant de nouveaux substrats de silice préalablement caractérisés. Nous comparons alors les isothermes et les chaleurs d’adsorption obtenues expérimentalement aux prédictions théoriques, ce qui valide l’ensemble du formalisme de l’échelle microscopique à l’échelle macroscopique, en nous servant de tous les nouveaux développements que nous présentons dans cette thèse, liés à la modélisation du fluide et à la modélisation du solide.

    • New polymers as binders or electroactive materials for Li-ion batteries by Pierre Ranque

      1 janv. 2018 01:00

      Ce travail de thèse, débuté en 2015, a pour but de développer et d'étudier les propriétés de nouveaux liants polymères pour batteries Li-ion. Les synthèses organiques ainsi que leurs caractérisations associées et les tests électrochimiques ont été réalisées à Delft. Puis, des études de spectroscopie photo-électronique par rayons X (XPS) ont été réalisées à Pau pour déterminer et comprendre la réactivité de certain de ces nouveaux matériaux vis-à-vis du lithium.

    • Théorie de l'auto assemblage de copolymères hybrides by Inna Lebedeva

      1 janv. 2018 01:00

      L’auto-assemblage de macromolécules amphiphiles dans des solutions aqueuses est un mécanisme important sous-jacent à de nombreux processus présents dans les organismes vivants. La formation spontanée de structures auto-organisées de phospholipides et de biomacromolécules se produit en raison d'un équilibre délicat entre les forces d'attraction et de répulsion. Ces forces comprennent l'attraction hydrophobe, la liaison hydrogène, les forces de coordination des métaux et la répulsion stérique ou électrostatique. En outre, l'auto-assemblage de molécules amphiphiles synthétiques est largement utilisé dans divers domaines technologiques. Un exemple frappant est celui des surfactants de faible poids moléculaire qui peuvent modifier de manière significative les propriétés des systèmes. Les autres domaines importants dans lesquels les tensioactifs et les macromolécules amphiphiles sont activement utilisés sont la cosmétologie et l'hygiène. Cependant, l'utilisation de structures auto-organisatrices de macromolécules amphiphiles nécessite une étude approfondie et soulève quelques questions pour les chercheurs concernant leur structure, leur comportement sous l'influence de facteurs externes et leur stabilité. L'objectif principal de la thèse était de développer une théorie de champ analytique auto-cohérente de l'auto-organisation dans des solutions de copolymères de déblocage non ioniques linéaires dendritiques et dendritiques doubles dans des solvants sélectifs. Cette théorie nous permet de prédire comment la dendronisation d'un ou des deux blocs affecte les propriétés structurelles et thermodynamiques d'assemblages auto-organisés formés par des copolymères. Il a été démontré que la dendronisation des corona bloc permet d’obtenir les micelles stables de taille relativement petite, mais avec de nombreux groupes terminaux. Cette dernière caractéristique est particulièrement intéressante dans le contexte de la liberation contrôlée, puisque les groupes terminaux exposés à l'environnement peuvent être facilement fonctionnalisés par des groupes de ligands pouvant être ciblés. Ces deux caractéristiques peuvent être obtenues simultanément car la dendronisation des corona bloc réduit le nombre d'agrégation à l'équilibre et les dimensions globales des micelles par rapport aux micelles formées par des molécules de copolymères diblocs linéaires homologues tout en conservant un grand nombre de groupes terminaux par micelle. La dendronisation du bloc insoluble peut être utilisée pour augmenter le nombre d'unités monomères terminales dans le core. Nous avons également démontré que la dendronisation des blocs solubles favorise la formation de micelles sphériques, alors que les gammes de stabilité thermodynamique des micelles cylindriques et des dendrimersomes sont déplacées vers un degré plus élevé de polymérisation des séquences insolubles. Au contraire, la dendronisation du bloc insoluble a l'effet inverse et conduit à un élargissement des gammes de stabilité des polymeres et des micelles cylindriques.Nous avons étudié les effets de l'extensibilité finie dans les brosses polyélectrolytes à chaîne linéaire et à dendron contenant des groupes ioniques. Nous avons développé la théorie analytique des brosses polyélectrolytiques dans l'approximation de Poisson-Boltzmann qui explique explicitement l'extensibilité finie des chaînes de polyélectrolytes formant des brosses. Il a été montré que pour la même série de paramètres de la brosse, la théorie basée sur l’élasticité non linéaire des polyions prédit une épaisseur de la brosse plus faible et une plus grande amplitude du saut de la densité du polymère au bord du pinceau. Les connaissances obtenues fourniront une base rationnelle pour la conception moléculaire de nouveaux copolymères à blocs complexes sur le plan architectural, y compris ceux destinés à des applications médicales.

    • Ingénierie des générateurs thermoélectriques en régime instationnaire by Jesús Ernesto Jimenez Aispuro

      1 janv. 2018 01:00

      Les générateurs thermoélectriques (TEG), associant des modules thermoélectriques à des échangeurs de chaleur adaptés, permettent de produire de l’électricité à partir d’une source chaude et d’une source froide. Leur utilisation, réservée actuellement à des applications de niche, va s’avérer judicieuse pour différentes applications industrielles ou domestiques en raison de la disponibilité imminente de nouveaux matériaux thermoélectriques permettant des rendements améliorés et des coûts moindres. Pour rendre plus attractive l’utilisation des TEG et améliorer le rendement global des futures installations, une conception et une utilisation optimisées sont indispensables.La conception de TEG performants nécessite le développement de modèles numériques intégrant tous les éléments de la chaîne énergétique (source chaude, source froide, échangeurs, convertisseurs électriques). L’objectif de la thèse est de créer un outil de simulation du fonctionnement des générateurs sur l’ensemble du cycle de production de chaleur et donc sur des fonctionnements réels dépendant du temps. Le modèle développé en 3D pour les transferts de chaleur prend en compte la dépendance à la température des propriétés des matériaux et l’effet Thomson pour le modèle thermoélectrique.La validation de cet outil de simulation a nécessité la comparaison des prédictions du modèle à des résultats expérimentaux. Un dispositif expérimental a été complété et amélioré afin de mieux répondre aux attentes des études en régime instationnaire. Ce banc d'essai permet d'effectuer des tests avec différentes configurations de générateur thermoélectrique et différentes conditions de fonctionnement. Le modèle a montré une estimation correcte des températures du système et de la production électrique du TEG. Le modèle numérique est validé et peut être utilisé pour la prédiction du fonctionnement d’un TEG dans diverses conditions.

    • Stockage d'électricité associant un cycle thermodynamique à haut rendement avec un stockage thermique à haute température by Kévin Attonaty

      1 janv. 2018 01:00

      Cette étude concerne un système de stockage d’électricité basé sur le stockage thermique. Le principe est de convertir de l’électricité issue d’énergies renouvelables en chaleur lorsque la production est supérieure à la demande, de conserver cette chaleur puis de la reconvertir en électricité lorsqu’un besoin se présente. Le système proposé s’appuie sur une technologie de stockage sensible à haute température : le stockage régénératif gaz/solide. Ce stockage est associé à une boucle de charge et à un cycle thermodynamique de restitution électrique. Dans cette étude, deux architectures sont étudiées pour ce dernier : la première est basée sur un cycle gaz, la seconde sur un cycle combiné Joule/Rankine. Un modèle global du système est développé sur la base d’une modélisation de chaque composant à un niveau de détail approprié. Sur la base de ce modèle, une analyse thermodynamique est menée. Celle-ci identifie le rendement exergétique global du procédé, proche de celui d’un cycle à combustion. Une analyse exergétique détaillée du stockage identifie les principaux postes d’irréversibilités dans ce composant. Elle montre qu’il est possible d’optimiser de manière relativement simple ses performances en jouant sur son dimensionnement. Par la suite, une analyse économique montre qu’en dépit de ses performances inférieures, le cycle gaz est associé à des coûts d’investissement limités qui rendent son utilisation pertinente. En termes de coût du stockage, le système étudié est compétitif avec des solutions comme les batteries.

    • Rôle des microARNs dans la régulation du métabolisme du cholestérol chez la truite arc-en-ciel alimentée avec des régimes à base de végétaux. by Tengfei Zhu

      1 janv. 2018 01:00

      L'aquaculture a connu un développement considérable au cours des dernières décennies. De par leurs disponibilités limitées, la farine de poisson et l'huile de poisson, considérées comme des ingrédients traditionnels de l'alimentation des poissons d’élevage, ont été largement remplacées par des matières premières végétales afin de soutenir le développement durable de l'aquaculture. Cette évolution de la composition des aliments aquacoles a entraîné une réduction importante de la teneur en cholestérol des aliments aquacoles. Dans ce contexte, l'objectif de la thèse était d’analyser les modifications du métabolisme du cholestérol chez la truite arc-en-ciel en réponse à une alimentation strictement végétale. Nous avons porté une attention particulière aux mécanismes sous-jacents à la régulation du métabolisme du cholestérol, en nous concentrant sur les facteurs de transcription et les microARNs. Enfin, nous avons évalué la possibilité d'utiliser les microARNs comme biomarqueurs non invasifs. Nos études ont montré qu’une alimentation végétale induit chez la truite une hypocholestérolémie associée à une modification de l’expression des gènes impliqués dans la synthèse et dans l'efflux du cholestérol mais aussi des facteurs de transcription SREBP-2 et LXRα. Nous avons également observé une diminution de l’expression du miR-223 dans le foie des truites nourries avec un régime à base de plantes ce qui suggère l'implication de mécanismes post-transcriptionnels dans la régulation de la synthèse du cholestérol chez la truite arc-en-ciel. Nous avons ensuite effectué une étude de la régulation du métabolisme du cholestérol chez une lignée de truite arc-en-ciel sélectionnée pour sa meilleure capacité de croissance sur aliment végétal. Nous avons observé une augmentation de l'expression du miR-33a chez les truites nourries avec un régime à base de plantes et une expression plus importante des miR-122 et 128 chez les truites de la lignée sélectionnée, quel que soit le régime. En analysant l’expression de gènes cibles potentiels des miR-33a, 122 et 128, nous avons pu mettre en évidence une régulation cohérente entre les miR-33a et 128 et leurs cibles potentielles que sont respectivement la caspase 6 apoptosis-related cysteine peptidase like 2 (casp6l2) et la phosphodiesterase 4B cAMP-specific a (pde4ba). Ces résultats mettent en évidence deux nouvelles voies moléculaires affectées par l’alimentation végétale chez la truite. Grâce à la combinaison d’approches in vivo et in vitro, nous avons constaté que l'expression des gènes impliqués dans la synthèse de cholestérol et celle du facteur de transcription SREBP-2 et du miR-33a augmentent chez les truites nourris avec l’aliment végétal et inversement diminuent en culture primaire d’hépatocytes de truite stimulés par du 25-hydroxycholestérol. Il semble donc SREBP-2 et miR-33a agissent en synergie pour réguler la synthèse du cholestérol. Enfin, nous avons détecté avec succès miR-1, miR-33a, miR-122, miR-128 et miR-223 dans le plasma de truite. Nous avons observé que les taux plasmatiques de miR-128 et de miR-223 sont soumis à des variations postprandiales similaires à celles observées pour leurs homologues hépatiques. Des corrélations significatives ont été observées entre les taux hépatiques et plasmatiques des miR-128 et miR-223. D’autres corrélations apparaissent entre les miR-122, 128 et 223 et l'expression de gènes liés à la synthèse et à l'efflux du cholestérol. Ces résultats indiquent que les micrARNs plasmatiques 122, 128 et 223 constituent de potentiels biomarqueurs non invasifs du métabolisme du cholestérol chez la truite arc-en-ciel.

    • Agrégation et dissémination de données dans un réseau véhiculaire VANET. by Sabri Allani

      1 janv. 2018 01:00

      Cette thèse traite la problématique de la dissémination et l’agrégation des données dans un contexte de réseaux VANET (Vehicle Ad-Hoc Networks). Cette problématique est fort intéressante, toujours d’actualité dans un monde de plus en plus urbanisé. En effet, d’un côté la dissémination permet d’informer les véhicules mobiles des principaux événements en temps utile, et de l’autre côté l’agrégation permet de résumer plusieurs données émanant de sources différentes concernant le même événement. Le challenge de la dissémination consiste à calculer la zone de relevance d’un événement, de délivrer les messages aux véhicules de cette zone, et de continuer à délivrer les messages en continu aux véhicules de cette zone. Le challenge de l’agrégation consiste essentiellement à sélectionner les messages à agréger et à qualifier les messages provenant de véhicules lointains. Pour résoudre le problème de dissémination nous proposons un nouveau protocole de dissémination des données dans les réseaux VANET. La principale idée de ce protocole est basée sur la définition de zones de relevance ZOR (zone of relevance of a région) pour la mesure de l’intérêt d’une zone par rapport à un évènement donné, et la définition de split Map permettant de décomposer une grande région en un ensemble de ZORs. L’approche de calcul des ZORs est formalisée, elle est basée sur les techniques de greedy pour l’extraction de la couverture pertinente. Le protocole de dissémination présenté sous forme de diagramme Flowchart qui résumé les activités lorsque qu’un véhicule est en mouvement, un événement est détecté. La performance du protocole proposé est évaluée et comparé au protocole Slotted1-Persistence à travers un environnement de simulations et une topologie réelle de routes de la ville de Bizerte en Tunisie. Les résultats de simulation sont présentés et discutés.D’autre part, certaines applications VANET, par exemple le système d’information de trafic (TIS), nécessitent une agrégation de données pour informer les véhicules des conditions de circulation, ce qui réduit les embouteillages et par conséquent les émissions de CO2 Par conséquent, la conception d'un protocole d'agrégation efficace combinant des informations de trafic corrélées telles que l'emplacement, la vitesse et la direction, appelées données flottantes sur les voitures (FCD), pose un problème complexe. Dans cette thèse, nous introduisons un nouveau protocole d’agrégation de données dans un réseau VANET appelé SDDA (Smart Directional Data Aggregation). Ce protocole est dédié aussi bien à l’échange de données dans un contexte urbain et autoroutier. Le protocole proposé est basé sur une sélection des messages à agréger. Trois principaux filtres ont été utilisés : filtrage basé sur la direction des véhicules, filtrage basé sur la limitation de vitesse, et filtrage basé sur l’élimination des messages dupliqués. Trois algorithmes d’agrégation sont proposés, ils visent à optimiser l’algorithme de SOTIS. Les trois algorithmes traitent des cas de routes unidirectionnelles, bidirectionnelles et les réseaux urbains. A l’image du chapitre précédent, la performance des algorithmes proposés sont évaluées à travail un travail de simulation et différents résultats sont présentés et discutés.

    • Approche numérique d'écoulements complexes à l'échelle des pores en milieux poreux by Laurène Hume

      1 janv. 2018 01:00

      Dans le cadre des écoulements à l’échelle du pore d’un milieu poreux, cette thèse de calculscientifique propose une méthode itérative de résolution de Stokes incompressible basée sur lapénalisation de la matrice solide et mettant en jeu le champ de vorticité. La méthode développéeici s’inspire des méthodes de vortex habituellement utilisées pour les écoulements externes où letransport est dominant, mais adaptée aux écoulements visqueux à petites échelles (bas Reynolds).Les propriétés de cette méthode numérique itérative, qui alterne et sépare les étapes de pénalisationet de diffusion, permettent de simuler des écoulements confinés dans l’espace poral enproposant une formulation ne faisant intervenir que des opérateurs usuels, permettant de s’affranchirde l’aspect non-séparable de l’équation de diffusion-pénalisation. On assure ainsi dessimulations à haute résolution et faible stockage mémoire, aussi bien sur des géométries simplesde référence que sur des géométries poreuses réelles, et les résultats sont confrontés à des donnéesexpérimentales ou théoriques. Le code de calcul implémenté est validé et exploité pour l’estimationde la perméabilité d’échantillons réels.Dans la continuité de ce travail sur les écoulements avec adhérence à l’interface, on généralisecette approche à la problématique de la rugosité des parois solides. On présente une méthode derésolution du problème de Stokes perturbé par ce type de rugosité à l’interface pores/matricemodélisé par une condition aux limites de glissement tangentiel de type Robin-Fourier.La thèse présente également un volet sur les écoulements à viscosité variable. On présenteainsi une simulation du problème de Stokes non-linéaire couplé avec une équation de diffusionet transport résolue par méthode particulaire. On s’intéresse à une simulation originale de l’écoulementde xanthane (modélisé via une loi de Carreau comme polymère rhéofluidifiant) dans une géométrie réelle de roche de type grès sableux Bentheimer. Les résultats présentés montrent lacapacité de la méthode à gérer des variations de viscosité importante. Également à propos de lamodélisation et de la simulation des écoulement à viscosité variable, et plus précisément de l’homogénéisationdes mélanges, on présente aussi un estimateur théorique de la viscosité effectivepour les mélanges aléatoires. Ce résultat est validé numériquement grâce à une méthodologie detype Monte-Carlo sur un grand nombre de simulations de Stokes.

    • Naviers-Stokes equations with Navier boundary condition by Amrita Ghosh

      1 janv. 2018 01:00

      Le titre de ma thèse de doctorat est "Equations de Stokes et de Navier-Stokes avec la con- dition de Navier", où j’ai considéré l’écoulement d’un fluide newtonien visqueux, incompressible dans un domaine borné de R3. L’écoulement du fluide est décrit par les équations bien connues de Navier-Stokes, données par le système suivant ∂t − ∆u + (u • ∇)u + ∇π = 0, div u = 0 dans Ω × (0, T )u • n = 0, 2[(Du)n]τ + αuτ = 0 sur Γ × (0, T )u(0) = u0 dans Ω (0.1) dans un domaine borné Ω ⊂ R3 de frontière Γ, éventuellement non simplement connexe, de classe C1,1. La vitesse initiale u0 et le coefficient de friction α, scalaire, sont des fonctions don- nées. Les vecteurs unitaires normal extérieur et tangents à Γ sont notés n et τ respectivement et Du = 1 (∇u + ∇uT ) est le tenseur des déformations. Les fonctions u et π décrivent respective- ment les champs de vitesses et de pression du fluide dans Ω satisfaisant la condition aux limites (0.1.2).Cette condition aux limites, proposée par H. Navier en 1823, a été abondamment étudiée ces dernières années, qui pour de nombreuses raisons convient parfois mieux que la condition aux limites de Dirichlet sans glissement : elle offre plus de liberté et est susceptible de fournir une solution physiquement acceptable au moins pour certains des phénomènes paradoxaux résultant de la condition de non-glissement, comme par exemple le paradoxe de D’Alembert ou le paradoxe de non-collision.Ma thèse comporte trois parties. Dans la première, je cherche à savoir si le problème (0.1) est bien posé en théorie Lp, en particulier l’existence, l’unicité de solutions faibles, fortes dans W 1,p(Ω) et W 2,p(Ω) pour tout p ∈ (1, ∞), en considérant la régularité minimale du coefficient de friction α. Ici α est une fonction, pas simplement une constante qui reflète les diverses propriétés du fluide et/ou de la frontière, ce qui nous permet d’analyser le comportement de la solution par rapport au coefficient de frottement.Utilisant le fait que les solutions sont bornées indépendamment de α, on montre que la solution des équations de Navier-Stokes avec la condition de Navier converge fortement vers une solution des équations de Navier-Stokes avec la condition de Dirichlet, correspondant à la même donnée initiale dans l’espace d’énergie lorsque α → ∞. Des résultats similaires ont été obtenus pour le cas stationnaire.Le dernier chapitre concerne les estimations pour le problème de Robin pour le laplacien : l’opérateur elliptique de second ordre suivant, sous forme divergentielle dans un domaine bornéΩ ⊂ Rn de classe C1, avec la condition aux limites de Robin a été considéré div(A∇)u = divf + F dans Ω, ∂u+ αu = f n + g sur Γ.∂n (0.2) Les coefficients de la matrice symétrique A sont supposés appartenir à l’espace V MO(R3). Aussi α est une fonction appartenant à un certain espace Lq . En plus de prouver l’existence, l’unicité de solutions faibles et fortes, nous obtenons une borne sur u, uniforme par rapport à α pour α suffisamment large, en norme Lp. Pour plus de clarté, nous avons étudié séparément les deux cas: l’estimation intérieure et l’estimation au bord.

    • Modélisation numérique des vagues générées par des glissements de terrain by Lucie Clous

      1 janv. 2018 01:00

    • Space-Time Discretization of Elasto-Acoustic Wave Equation in Polynomial Trefftz-DG Bases by Elvira Shishenina

      1 janv. 2018 01:00

      Les méthodes d'éléments finis de type Galerkine discontinu (DG FEM) ont démontré précision et efficacité pour résoudre des problèmes d'ondes dans des milieux complexes. Cependant, elles nécessitent un très grand nombre de degrés de liberté, ce qui augmente leur coût de calcul en comparaison du coût des méthodes d'éléments finis continus.Parmi les différentes approches variationnelles pour résoudre les problèmes aux limites, se distingue une famille particulière, basée sur l'utilisation de fonctions tests qui sont des solutions locales exactes des équations à résoudre. L'idée vient de E.Trefftz en 1926 et a depuis été largement développée et généralisée. Les méthodes variationnelles de type Trefftz-DG appliquées aux problèmes d'ondes se réduisent à des intégrales de surface, ce qui devrait contribuer à réduire les coûts de calcul.Les approches de type Trefftz ont été largement développées pour les problèmes harmoniques, mais leur utilisation pour des simulations en domaine transitoire est encore limitée. Quand elles sont appliquées dans le domaine temporel, les méthodes de Trefftz utilisent des maillages qui recouvrent le domaine espace-temps. C'est une des paraticularités de ces méthodes. En effet, les méthodes DG standards conduisent à la construction d'un système semi-discret d'équations différentielles ordinaires en temps qu'on intègre avec un schéma en temps explicite. Mais les méthodes de Trefftz-DG appliquées aux problèmes d'ondes conduisent à résoudre une matrice globale, contenant la discrétisation en espace et en temps, qui est de grande taille et creuse. Cette particularité gêne considérablement le déploiement de cette technologie pour résoudre des problèmes industriels.Dans ce travail, nous développons un environnement Tre#tz-DG pour résoudre des problèmes d'ondes mécaniques, y compris les équations couplées de l'élasto-acoustique. Nous prouvons que les formulations obtenues sont bien posées et nous considérons la difficulté d'inverser la matrice globale en construisant un inverse approché obtenu à partir de la décomposition de la matrice globale en une matrice diagonale par blocs. Cette idée permet de réduire les coûts de calcul mais sa précision est limitée à de petits domaines de calcul. Etant données les limitations de la méthode, nous nous sommes intéressés au potentiel du "Tent Pitcher", en suivant les travaux récents de Gopalakrishnan et al. Il s'agit de construire un maillage espace-temps composé de macro-éléments qui peuvent être traités indépendamment en faisant une hypothèse de causalité. Nous avons obtenu des résultats préliminaires très encourageants qui illustrent bien l'intérêt du Tent Pitcher, en particulier quand il est couplé à une méthode de Trefftz-DG formulée à partir d'intégrales de surface seulement. Dans ce cas, le maillage espace-temps est composé d'éléments qui sont au plus de dimension 3. Il est aussi important de noter que ce cadre se prête à l'utilisation de pas de temps locaux ce qui est un plus pour gagner en précision avec des coûts de calcul réduits.

    • L'exsudation de la résine dans le bois de pin maritime (pinus pinaster) : étude et mise en place d'un système de prévention by Thomas Cabaret

      1 janv. 2018 01:00

      Les travaux réalisés lors de cette thèse s’effectuent dans le cadre du projet FIXAPIN. Ce projet, financé par la région Nouvelle Aquitaine, est mené en collaboration avec différentes entreprises (Gascogne Bois, Bardage Bois Neoclin, Lesbats Scieries d’Aquitaine, Scierie Labadie et FPBOIS) spécialisées dans le domaine du sciage du bois de pin maritime et l'Institut technologique FCBA. L’objectif du projet est de limiter voire d’empêcher l’exsudation de la résine généralement observée sur la surface des planches de bois de pin maritime utilisées en extérieur comme bardage. L’exsudation de la résine est un frein important à l’utilisation de ce bois en extérieur et ces recherches s’inscrivent dans une démarche d’amélioration continue de la qualité des produits de la filière du pin maritime.Le bois de pin maritime peut présenter un taux de résine supérieur à 10 % de sa masse. La résine est constituée d’environ 70 % de colophane (fraction solide) et de 30 % d’essence de térébenthine (fraction liquide et volatile). À la suite d’essais préliminaires, les recherches réalisées lors de cette thèse se sont concentrées sur l’optimisation du cycle de séchage du bois afin de fixer la résine dans les planches. Les propriétés thermiques de la résine associée à des analyses physico-chimiques ont été étudiées afin de mettre en place des procédures de séchage optimisées ayant pour but d’augmenter la température de ramollissement de la résine à un seuil supérieur à la température maximum atteignable par un bardage extérieur.Les résultats ont permis de démontrer l’efficacité d’un séchage/traitement thermique du bois à haute température (> 120 °C) permettant d’envisager la poursuite de ces travaux aux échelles pilotes puis industrielles. De plus, des séchages longs à basse température (< 60 °C) peuvent également représenter une voie prometteuse concernant le séchage du bois en séchoir traditionnel.

    • Vers une maitrise de l'impact réel des choix de conception sur la qualité de l'air intérieur des bâtiments tout au long de leur vie. by Alexandre Gross

      1 janv. 2018 01:00

      Un des enjeux pour améliorer la qualité de l’air intérieur des bâtiments est d’adopter de bonnes pratiques, notamment en matière de sélection des matériaux lors des phases de conception. Pour cela, des outils d’aide à la décision/conception sont indispensables en support à ces bonnes pratiques pour atteindre une maîtrise globale de la qualité de l’air intérieur. Dans le domaine du bâtiment, il n’existe pas à ce jour d’outil opérationnel permettant d’estimer, en amont d’une construction, la qualité de l’air intérieur. Des travaux sont engagés sur ce thème mais ils se heurtent à un manque d’informations sur le comportement des matériaux lorsque ceux-ci sont associés et soumis à des conditions normales d’usage. Ces travaux de thèse avaient donc pour objectif d’évaluer le comportement de matériaux (source ou puits) vis-à-vis de la contamination aux composés organiques volatils (COV) et au formaldéhyde lorsqu’ils sont évalués seuls dans des conditions normalisées retenues pour l’étiquetage sanitaire, mais aussi lorsqu’ils sont mis en œuvre dans des projets de construction (impact du changement d’échelle et effet d'assemblage). La méthodologie développée a donc associé des essais à l’échelle du matériau et à l’échelle d’une pièce dans le but d’acquérir des données d’entrée à un modèle pour la prédiction des concentrations et l’évaluation des contributions respectives des différents processus (émissions primaires, échanges aux interfaces air/surfaces intérieures,…) à la contamination intérieure par les COV. Une première partie de ce travail a consisté à évaluer en laboratoire les échanges de COV et de formaldéhyde à l'interface matériau-air pour une sélection de matériaux de construction et de décoration. Les émissions primaires ont été déterminées selon la méthode normalisée ISO 16000-9 et par une méthode d’échantillonnage passif basée sur un couplage cellule d'émission/micro-extraction sur phase solide (SPME) (dispositif DOSEC-SPME) et l’effet de l’assemblage de matériaux et de composants sur la qualité de l’air intérieur a été étudié. Les constantes d’adsorption/désorption du formaldéhyde sur les matériaux sélectionnés ont ensuite été déterminées par une méthodologie innovante. Ces constantes, ainsi que les données d’émission, ont été rassemblées dans une base données pour servir de critères (ou indicateurs) pour la sélection de matériaux respectueux de la qualité de l’air intérieur (QAI). Dans une deuxième partie, les résultats obtenus en conditions de laboratoire ont été confrontés à ceux obtenus en conditions réelles à l’échelle d’une pièce dans le cadre d’une étude de plusieurs mois dans le but de mettre en évidence l’impact du changement d’échelle. La dernière partie de cette thèse a consisté à développer un modèle de prévision de la QAI intégrant les données d'adsorption/désorption préalablement déterminées. A terme, la base de données et le modèle ont vocation à constituer des outils de gestion pour orienter les choix en matière de matériaux, de configuration et d'usage d’un bâtiment dans l’optique d’une réduction à la source des émissions de COV dans l’air intérieur.

    • Biodiversité et fonctionnalité des biofilms oléolytiques en milieu marin by Claudie Barnier

      1 janv. 2018 01:00

      En milieu marin le carbone organique particulaire (POC) représente 25 % du carbone organique total. Sa dégradation est réalisée par des microorganismes hétérotrophes ayant mis en place diverses stratégies pour parvenir à le dissoudre et l’assimiler. Peu d’études se sont intéressées à la dégradation des composés polymériques et/ou hydrophobes, quasiment insolubles dans l’eau constituant le POC. Parmi ces composés, on retrouve les lipides et les hydrocarbures regroupés sous le terme de COH (composés organiques hydrophobes). La dégradation des COH est réalisée par des bactéries dîtes oléolytiques ayant entre autre pour stratégie la formation de biofilms également qualifiés d’oléolytique. Nos connaissances sur la diversité et la fonctionnalité des biofilms oléolytiques se limitent actuellement aux bactéries spécifiquement étudiées pour leur capacité à dégrader les HC. Ainsi la dégradation des lipides est souvent négligée alors que cette famille de molécules représente une part significative du POC.La diversité taxonomique des bactéries formant des biofilms oléolytiques a été déterminée par un criblage de 199 souches marines sur 4 substrats : un alcane (paraffine), un triglycéride (tristéarine), un acide gras (acide palmitique) et une cire (l’hexadécyl palmitate). Cette étude a révélé que les bactéries oléolytiques (formant un biofilm sur au moins 1 des substrats) sont relativement répandues parmi les bactéries marines puisque qu’elles représentent 18.7 % des souches testée. Cette étude montre également que les bactéries capables d’assimiler les alcanes sont également capables d’assimiler au moins un lipide. Les bactéries hydrocarbonoclastes, jusqu’alors décrites comme spécialisées, voir restreintes à l’assimilation des hydrocarbures, présentent donc une gamme de substrats s’étendant aux lipides. La corrélation positive entre la capacité d’assimilation des alcanes et l’assimilation des lipides suggère un lien physiologique entre l’assimilation de ces deux familles de COH. L’activité lipase qui est essentielle à l’assimilation des triglycérides mais pas à l’assimilation des alcanes, a été mesurée dans des cultures de souches oléolytiques poussant sur acétate, triglycéride ou hexadécane. Comme attendu, les cultures sur triglycérides montrent toutes une surexpression de l’activité lipases par rapport aux cultures sur acétate. Les cultures sur hexadécane montraient aussi une surexpression de l’activité lipase renforçant l’idée d’un lien physiologique entre dégradation des alcanes et dégradation des lipides. De plus les souches oléolytiques n’ont pas montré de capacité à former un biofilm sur une surface inerte hydrophobe telle que le polystyrène ou sur une surface hydrophile telle que le verre à la hauteur de celles constaté sur COH. Une étude quantitative de l’adhésion sur COH et substrats inertes réalisée par microscopie montre que l’adhésion (dans les conditions testées) n’est pas un facteur déterminant de la formation de biofilm sur ces mêmes substrats. Cela suggère que la spécificité de formation de biofilm sur les substrats COH, ne réside pas dans l’adhésion mais vraisemblablement dans les étapes de développement du biofilm plus tardives.Enfin, les biofilms oléolytiques mettant en jeux des produits extracellulaires (enzymes et facteurs de solubilisation) qui constituent des biens communs, sont propices à l’établissement de comportements sociaux. Nous avons mis en évidence des comportements synergiques (5/8 des comportements observés) ou compétitifs au sein de biofilm oléolytiques (3/8 des comportements observés).

    • Contribution à l'étude de la séparation/extraction et à l'identification des composés du nickel et du vanadium dans un brut pétrolier by German Gascon

      1 janv. 2018 01:00

      Ces travaux de thèse sur le fractionnement des produits pétrolier a pour but de mieux caractériser certaines espèces métalliques, principalement le Nickel et le Vanadium. Dans un premier temps, ils ont permis de démontrer que les composés contenant du V et Ni présents dans ces matrices complexes sont essentiellement concentrés dans les fractions les plus polaires, à savoir, les résines et les asphaltènes. En ce qui concerne les composés soufrés, on a constaté qu'ils se concentrent dans les fractions résines et les aromatiques. Il a également été constaté que la teneur en composés contenant du V et Ni qui précipite avec les asphaltènes est linéairement lié au paramètre de solubilité du solvant utilisé pour la précipitation. Et pour des solvants aux paramètres de solubilité proche de 16 MPa0.5, le pourcentage d’asphaltènes soluble est augmenté. On conclut que le pourcentage réel des asphaltènes présents dans un brut est égal au pourcentage d'asphaltènes insolubles, plus un pourcentage d’asphaltènes soluble. On a constaté que ces types d’asphaltènes ont une distribution de poids moléculaire similaire à celle des asphaltènes insolubles, et non un poids moléculaire plus faible. En ce qui concerne la distribution des poids moléculaires des composés du V présents dans les échantillons évalués, au moins trois grandes distributions de poids moléculaires ont été identifiées. Il s’agit des composés de « high molecular weight », « medium molecular weight » et « low molecular weight ». Sur ces distributions, nous trouvons que les composés contenant du V, Ni et S sont, dans les asphaltènes, prédominant dans la fraction HMW et sont caractéristiques des composés nanoagrégés. En ce qui concerne les composés de type MMW, ils ont été observés dans une plus grande proportion dans les maltènes. Il est à noter la présence de composés de type HMW avec les maltènes, ce qui pour les raisons exposées ci-dessus, peut être considérée comme une preuve incontournable de la présence d’asphaltènes soluble dans les maltènes. A propos des méthodes de séparation développées, il a été possible de séparer les différentes distributions de poids moléculaires initialement identifiées chez les maltènes et les asphaltènes. Pour les maltènes, il a été possible d’extraire les différents composés contenant du V et Ni en fonction de leur poids moléculaire HMW, LMW et MMW. Cette extraction a été réalisé en utilisant des extractions liquide-liquide des maltènes dissous dans de l'heptane avec de l’ACN pour extraire les composés à bas poids moléculaire, suivie par une extraction avec du DMF pour extraire des composés MMW. La fraction restante des maltènes est composés surtout de composés HMW.Pour les asphaltènes, 11 solvants ont été évalués pour l'extraction des composés contenant du V et du Ni. Le profil des composés extraits a permis de séparer jusqu'à 4 distributions différentes de poids moléculaire avec du ACN, de l’acétone et du DMF utilisés séquentiellement. En ce qui concerne les composés de HMW, la fraction insoluble après extraction au DMF a un poids moléculaire plus élevé que la fraction soluble. Pour l'influence de la concentration sur la présence des composés contenant du Ni et V de HMW, il a été démontré que même dilué 40.000 fois, une solution asphaltènes (à 25 mg / L) contient toujours des composés de HMW et donc des nanoaggregat d’asphaltènes. Quant à la caractérisation des fractions extraite, seule la fraction correspondant aux poids moléculaires faibles (LMW) a été étudiée. La détermination de la distribution du poids moléculaire par spectrométrie de masse FT ICR MS et la comparaison du chromatogramme par GPC ICP MS suggère que ces composés contenant du V et du Ni présent dans la fraction LMW sont des métalloporphyrines libre avec des structures brutes assez simples. Ces travaux vont permettre d’ouvrir la voie à une caractérisation plus approfondie des différentes fractions obtenus et ainsi de permettre une meilleure connaissance des pétroles lourds.

    • Stockage du CO2 et séparation CO2/CH4 par des matériaux de silice à porosité et fonctionnalité contrôlées : étude expérimentale et modélisation de dynamique moléculaire by Saphir Venet

      1 janv. 2018 01:00

      Ce travail vise à évaluer les performances de matériaux à base de silice et à rationaliser leur synthèse en fonction des propriétés d’adsorption recherchées (capacité et/ou sélectivité) en combinant des approches expérimentales et la modélisation de dynamique moléculaire. Ces matériaux devaient idéalement présenter une capacité d’adsorption CO2 mais également une sélectivité CO2 /CH4 élevées. Les différentes étapes de ce travail ont été :- la synthèse et la fonctionnalisation des matériaux de silice,- leur caractérisation texturale et chimique,- la détermination des capacités d’adsorption du CO2, de leur sélectivité CO2/CH 4 ,- les caractérisations par différentes techniques spectroscopiques et microscopiques des échantillons pour essayer de localiser l’adsorption du CO2 et mesurer sa mobilité,- l’identification microscopique par modélisation moléculaire des facteurs physico-chimiques influant sur l’adsorption préférentielle du CO2 et sa diffusivité dans le matériau hôte ainsi que sur le rôle du caractère hydrophile/hydrophobe du matériau de silice par le biais de sa fonctionnalisation.Ces objectifs ont nécessité la préparation de matériaux à surfaces spécifiques élevées par le biais d’un procédé sol-gel simple. Ces matériaux ont été modifiés afin d’obtenir un taux de fonctionnalisation par des groupements -CH3 suffisant pour modifier le caractère hydrophile du matériaux tout en conservant une surface spécifique suffisante. L’influence de la taille des pores a également été sondée.Les capacités d’adsorption des gaz sous pression ont été réalisées pour les gaz purs mais également sur des mélanges CO2/CH4 dans différentes proportions. La sélectivité CH 4 /CO 2 , souvent estimée à partir des isothermes des corps purs et/ou la méthode IAST, a dans ce cas été déterminée à partir de la mesure directe des isothermes des mélanges de gaz. Il est apparu que l’eau joue un rôle crucial sur les capacité et sélectivités d’adsorption. Ce paramètre est l’un de ceux qui a été étudié à travers les simulations de dynamiques moléculaires. L’influence de l’introduction de groupements hydrophobes a également été exploré.Les résultats obtenus par dynamique moléculaire sont dans l’ensemble en bon accord avec les données expérimentales. Ces deux approches parallèles expérience/théorie ont mis en évidence la sélectivité de l’un des matériaux pour des applications où l’effluent gazeux est peu chargé en CO 2 .

    • Enriching Remote Labs with Computer Vision and Drones by Fawzi Khattar

      1 janv. 2018 01:00

      Avec le progrès technologique, de nouvelles technologies sont en cours de développement afin de contribuer à une meilleure expérience dans le domaine de l’éducation. En particulier, les laboratoires distants constituent un moyen intéressant et pratique qui peut motiver les étudiants à apprendre. L'étudiant peut à tout moment, et de n'importe quel endroit, accéder au laboratoire distant et faire son TP (travail pratique). Malgré les nombreux avantages, les technologies à distance dans l’éducation créent une distance entre l’étudiant et l’enseignant. Les élèves peuvent avoir des difficultés à faire le TP si aucune intervention appropriée ne peut être prise pour les aider. Dans cette thèse, nous visons à enrichir un laboratoire électronique distant conçu pour les étudiants en ingénierie et appelé «LaboREM» (pour remote laboratory) de deux manières: tout d'abord, nous permettons à l'étudiant d'envoyer des commandes de haut niveau à un mini-drone disponible dans le laboratoire distant. L'objectif est d'examiner les faces-avant des instruments de mesure électroniques, à l'aide de la caméra intégrée au drone. De plus, nous autorisons la communication élève-enseignant à distance à l'aide du drone, au cas où un enseignant serait présent dans le laboratoire distant. Enfin, le drone doit revenir pour atterrir sur la plate-forme de recharge automatique des batteries, quand la mission est terminée. Nous proposons aussi un système automatique pour estimer l'état de l'étudiant (frustré / concentré..) afin de prendre les interventions appropriées pour assurer un bon déroulement du TP distant. Par exemple, si l'élève a des difficultés majeures, nous pouvons lui donner des indications ou réduire le niveau de difficulté de l’exercice. Nous proposons de faire cela en utilisant des signes visuels (estimation de la pose de la tête et analyse de l'expression faciale). De nombreuses évidences sur l'état de l'étudiant peuvent être acquises, mais elles sont incomplètes, parfois inexactes et ne couvrent pas tous les aspects de l'état de l'étudiant. C'est pourquoi nous proposons dans cette thèse de fusionner les preuves en utilisant la théorie de Dempster-Shafer qui permet la fusion de preuves incomplètes.

    • In Atlantic salmon, space use of potential breeders stabilises population dynamics and shapes sexual selection. by Colin Bouchard

      1 janv. 2018 01:00

      La fragmentation des habitats ainsi que la réduction de leur disponibilité sont des menaces importantes pour les écosystèmes, notamment aquatiques. La disponibilité et la qualité des sites de fraie du saumon Atlantique peut donc être limitante dans certaines rivières. Après la migration en rivière, les femelles saumon vont chercher à s'établir dans un des sites de fraie disponibles. La distribution spatiale des femelles va alors influer sur la distribution spatiale des mâles reproducteurs qui vont chercher soit à monopoliser plusieurs femelles (pour les mâles dominants), soit à les approcher en adoptant un comportement "furtif" (pour les mâles satellites). L'accès des mâles aux femelles va donc dépendre de la distribution spatiale des femelles et des déplacements des mâles dans la rivière. La distribution des femelles va également jouer sur la distribution spatiale des juvéniles, les concentrant à certains endroits. Cette concentration peut augmenter la mortalité densité-dépendante qui modifie la dynamique de la population. Cette thèse avait pour but d'évaluer comment l'utilisation de l'espace des potentiels reproducteurs, c'est à dire les individus matures, influence la dynamique de la population et la sélection sexuelle.Des séries temporelles de stock (oeufs déposés) et de recrutement (juvéniles) pour la population de saumon de la Nivelle ont été associées à des mesures de l'agrégation spatiale des nids creusés par les femelles. L'effet des déplacements et de la distribution des reproducteurs sur leur participation à la reproduction a notamment été testé via la reconstruction du réseau d'interactions sexuelles dans la Nivelle.J'ai ainsi démontré que l'agrégation spatiale des nids influa sur la variabilité du recrutement mais pas sur le recrutement moyen. Cette agrégation qui résulte de l'agrégation des femelles a également été liée au nombre de reproducteurs ayant engendrés des juvéniles. Le réseau d'interactions sexuelles a permis de mettre en évidence une structure sociale locale au sein de la population. Cette structure et les compétiteurs présents pouvaient par exemple diminuer le succès reproducteur des mâles. Notamment, les tacons matures qui participent à la reproduction avant de migrer en mer renforçaient la compétition sexuelle dont les mâles dominants faisaient l'objet. Enfin, ces mêmes tacons matures adoptèrent des comportements spatiaux du fait de leur statut de maturité avec des individus bougeant peu et des individus se déplaçant vers l'amont. Ces comportements spatiaux influaient leur participation à la reproduction, l'étendue des domaines de vie et les déplacements vers l'amont augmentaient la probabilité de rencontrer une femelle.Mes résultats m'ont permis de mettre en évidence l'effet de l'utilisation de l'espace des potentiels reproducteurs sur la dynamique de la population et sur la sélection sexuelle. Ainsi, en combinant différentes échelles spatiales et temporelles il a été montré que l'agrégation des femelles pouvait être bénéfique pour la dynamique de la population. Il semble que les femelles tendent à s'agréger d'abord sur les meilleurs sites de fraie avec une plus forte stabilité environnementale. Cette distribution des femelles affecta la capacité des mâles à monopoliser plusieurs femelles, une agrégation modérée permettant une monopolisation. La participation des mâles furtifs anadromes ou tacons matures était également dépendante de l'agrégation des femelles. Il apparait que la disponibilité d'habitats adéquats pour la reproduction semble limitante dans la Nivelle et notamment du fait de la présence de barrages. Ce manque semble affecter le système d'appariement de la population et la sélection sexuelle y opérant. Des mesures visant à améliorer la qualité des sites de fraie déjà disponibles ainsi que leur accessibilité pourraient être envisagées.

    • Concrete transfer properties evolution and nuclear containment vessel tightness assessment during an accident by Lionel Ecay

      1 janv. 2018 01:00

      L’accident de Fukushima a démontré qu’aujourd’hui encore, malgré les progrès déjà réalisésdans le domaine de la sûreté nucléaire, une interruption prolongée du circuit de refroidissement primaire du réacteur (plusieurs semaines ici) était possible. La France s’est par conséquent vue contrainte de réévaluer le niveau de sûreté de ses centrales. Plus spécifiquement, le cas le plus défavorable qu’EDF considérait jusqu’alors, qui consistait en un arrêt total du système de refroidissement primaire de 24h, a été réévalué à deux semaines. Ce changement d’échelle temporelle a introduit des problématiques de fluage, d’évolution hygrométrique du béton ainsi que de flux de vapeur – celle-ci transportant les radionucléides – jusque-là laissées de côté. De ces considérations est né le projet ANR/RSNR MACENA (MAîtrise du Confinement d’une ENceinte en Accident), qui vise à évaluer le confinement d’une enceinte soumise à une température de 180°C et à une pression de 5 bar pendant deux semaines. Ce travail s’inscrit dans la lignée de celui entamé par Khaddour [2014] dans le but de parvenir à une meilleure prédiction des propriétés de transport des milieux poreux en se basant uniquement sur une caractérisation indirecte, la distribution des tailles de pore obtenue grâce à la technique de porosimétrie par intrusion de mercure. Si l’aptitude du modèle initial à estimer correctement les perméabilités intrinsèques a été confirmée sur des matériaux représentant une large gamme de perméabilités, il n’était pas, en l’état, capable de prédire les perméabilités relatives au gaz et au liquide. C’est pourquoi une approche dite redistributive a été développée, laquelle a montré de bons résultats sur diverses PSD. Enfin, un nouveau modèle a été développé pour essayer de s’affranchir de cette approche tout en améliorant la capacité à déterminer les perméabilités relatives. Bien qu’efficace sur des PSD monomodales, étroites ou larges, il a montré ses limites sur une PSD réelle bimodale. En parallèle, une étude de faisabilité a exhibé la possibilité de suivre un front de saturation à l’intérieur d’un matériau poreux, ce qui permettrait à terme de valider l’inclusion d’autres phénomènes dans le modèle, liés notamment à la pression de perçage.

    • Le développement d'un modèle de simulation prédictif des émissions des matériaux dans l'habitacle pour optimiser le bien-être à bord by Donatien Barreteau

      1 janv. 2018 01:00

      La thèse a été réalisée dans le cadre d’un partenariat entre le laboratoire d’accueil (C2MA, IMT Mines d’Alès), l’entreprise Renault et un contrat Cifre. La prise de conscience de la dégradation de la qualité de l’air s’étend à tous les environnements, que ce soit à l’intérieur ou à l’extérieur. En Asie, cette prise de conscience se traduit par de très strictes réglementations de la qualité de l’air dans l’habitacle automobile. Les constructeurs se doivent de respecter ces nouvelles réglementations afin de pouvoir vendre leurs véhicules dans ces pays où le marché automobile est en pleine croissance (principalement en Chine). C’est dans ce contexte que Renault a décidé d’améliorer la prise en compte de la qualité de l’air habitacle dans le développement de ses véhicules. Les contraintes techniques et la numérisation des outils de travail ont orienté le travail de thèse vers la modélisation de cette qualité de l’air habitacle. Afin de pouvoir tendre vers cet objectif, plusieurs points ont été traités. Tout d’abord, l’émission des matériaux d’habitacle a été caractérisée afin de comprendre quels composés organiques volatils et quels matériaux étaient responsables de la dégradation de la qualité de l’air dans le véhicule. Ensuite, une nouvelle approche expérimentale a été développée permettant une caractérisation plus représentative de l’émission des matériaux dans l’habitacle. Ces travaux ont permis de confirmer l’importance de l’impact des conditions environnementales sur l’émission des matériaux qui avait été observé dans la littérature. L’étude de ces paramètres environnementaux a été traitée tant dans l’application de modèles présentées dans la littérature que de détermination de facteurs expérimentaux permettant une extrapolation maitrisée de la mesure de l’émission des matériaux à la qualité de l’air dans l’habitacle du véhicule. Enfin, une première méthodologie de modélisation a pu être proposée et appliquée à des systèmes simplifiés permettant de montrer la cohérence de la démarche empruntée.

    • Cycle biogéochimique de l'iode en écosystèmes forestiers by Marine Roulier

      1 janv. 2018 01:00

      En raison de leur accumulation possible dans la glande thyroïde, les radio-isotopes de l'iode, 131I (t1/2 = 8,07 jours) et 129I (t1/2 = 15,7 106 ans), sont préoccupants pour la santé humaine. En raison de sa longue demi-vie, 129I est également d’une importance radio-écologique majeure du fait de son intégration potentielle au cycle biogéochimique naturel de son isotope stable (127I). Les forêts dont la surface couvre près du tiers du territoire en France et en Europe, se caractérisent par leur longévité, un haut niveau de recyclage de la biomasse et une forte influence sur les cycles hydrologiques et des nutriments. La végétation forestière peut intercepter puis recycler et accumuler les polluants et radionucléides émis dans l’environnement. Dans ce contexte, des axes de recherche ont été développés dans cette thèse afin de décrire qualitativement et quantitativement le cycle de l’iode et améliorer les prédictions à long-terme du comportement de 129I dans les écosystèmes forestiers.Les pluies constituent une source majeure d’iode pour les sols et la végétation forestière, les quantités apportées dépendant de la distance côtière et de la pluviométrie. La végétation modifie les quantités et la spéciation de l’iode apporté par les pluies. L'humus représente un compartiment d'accumulation provisoire d'iode associé à la matière organique. Ce compartiment constitue également une zone de réémission possible de l’iode par lessivage lors d’évènements pluvieux et/ou par volatilisation. Cette thèse a montré que les teneurs d'iode dans les sols forestiers dépendaient à la fois des apports atmosphériques et des chutes de biomasse, mais également de la capacité du sol à fixer l'iode. Ainsi, les conditions environnementales conduisant à une accumulation de matière organique et la présence d’(hydr)oxydes métalliques dans les sols favorisent la rétention de l’iode. A l’échelle de la placette forestière, le sol constitue le principal réservoir en iode (~99,9%). Du fait de la proportion d'iode au sein des arbres (< 0,03% du stock total en iode), les quantités d’iode recyclées par la végétation sont faibles, l’iode n’étant pas un oligo-élément pour les végétaux. Ainsi ces travaux de thèse ont permis de combler le manque de données relatives d’une part à la répartition de l’iode au sein des écosystèmes forestiers et d’autre part, aux processus de réémissions (lessivage et volatilisation) liés à la dégradation de la matière organique. Les données générées par cette thèse permettent de mieux appréhender la modélisation du cycle de l’iode dans cet écosystème forestier.

    • Semantic Representation of a Heterogeneous Document Corpus for an Innovative Information Retrieval Model : Application to the Construction Industry by Nathalie Charbel

      1 janv. 2018 01:00

      Les avancées récentes des Technologies de l'Information et de la Communication (TIC) ont entraîné des transformations radicales de plusieurs secteurs de l'industrie. L'adoption des technologies du Web Sémantique a démontré plusieurs avantages, surtout dans une application de Recherche d'Information (RI) : une meilleure représentation des données et des capacités de raisonnement sur celles-ci. Cependant, il existe encore peu d’applications industrielles car il reste encore des problèmes non résolus, tels que la représentation de documents hétérogènes interdépendants à travers des modèles de données sémantiques et la représentation des résultats de recherche accompagnés d'informations contextuelles.Dans cette thèse, nous abordons deux défis principaux. Le premier défi porte sur la représentation de la connaissance relative à un corpus de documents hétérogènes couvrant à la fois le contenu des documents fortement lié à un domaine métier ainsi que d'autres aspects liés à la structure de ces documents tels que leurs métadonnées, les relations inter et intra-documentaires (p. ex., les références entre documents ou parties de documents), etc. Le deuxième défi porte sur la construction des résultats de RI, à partir de ce corpus de documents hétérogènes, aidant les utilisateurs à mieux interpréter les informations pertinentes de leur recherche surtout quand il s'agit d'exploiter les relations inter/intra-documentaires.Pour faire face à ces défis, nous proposons tout d'abord une représentation sémantique du corpus de documents hétérogènes à travers un modèle de graphe sémantique couvrant à la fois les dimensions structurelle et métier du corpus. Ensuite, nous définissons une nouvelle structure de données pour les résultats de recherche, extraite à partir de ce graphe, qui incorpore les informations pertinentes directes ainsi qu'un contexte structurel et métier. Afin d'exploiter cette nouvelle structure dans un modèle de RI novateur, nous proposons une chaine de traitement automatique de la requête de l'utilisateur, allant du module d'interprétation de requête, aux modules de recherche, de classement et de présentation des résultats. Bien que nous proposions une chaine de traitement complète, nos contributions se focalisent sur les modules de recherche et de classement.Nous proposons une solution générique qui peut être appliquée dans différents domaines d'applications métiers. Cependant, dans cette thèse, les expérimentations ont été appliquées au domaine du Bâtiment et Travaux Publics (BTP), en s'appuyant sur des projets de construction.